Vue lecture
RGPD : la Cnil inflige une amende de 42 millions € à Free et Free Mobile
L’autorité de régulation frappe fort en ce début d’année. Suite à une intrusion massive survenue en octobre 2024 dans les systèmes d’information du groupe Iliad, la Commission nationale de l’informatique et des libertés (CNIL) inflige une amende d’un montant total de 42 millions € aux opérateurs Free Mobile (27 millions € ) et Free (15 millions €).
Retour sur les faits. En octobre 2024, un attaquant s’infiltre dans le système d’information des deux sociétés compromettant les données personnelles de 24 millions de contrats d’abonnés. Les données exposées incluaient notamment des IBAN pour les clients disposant d’abonnements auprès des deux entités simultanément.
L’ampleur de l’incident suscite plus de 2 500 plaintes d’abonnés et déclenche un contrôle approfondi de la CNIL qui identifie plusieurs manquements graves au Règlement général sur la protection des données (RGPD), chaque société étant tenue responsable du traitement des données de ses propres clients.
Des failles de sécurité élémentaires
La formation restreinte de la CNIL, organe compétent pour prononcer les sanctions, constate aussi l’absence de mesures de sécurité fondamentales qui auraient pu compliquer l’attaque. Les enquêteurs relèvent notamment que la procédure d’authentification pour accéder aux réseaux privés virtuels (VPN) des deux sociétés, utilisés pour le télétravail des employés, présentait des faiblesses importantes en termes de robustesse.
Par ailleurs, les dispositifs de détection des comportements anormaux sur les systèmes d’information se sont révélés inefficaces. La CNIL a jugé que ces mesures n’étaient pas adaptées au volume et à la sensibilité des données traitées par les deux opérateurs.
La commission reconnait cependant qu’ils ont renforcé leur niveau de sécurité en cours de procédure et leur impose d’achever la mise en œuvre de ces nouvelles mesures sous trois mois.
Une communication insuffisante auprès des victimes
Le régulateur pointe également du doigt les lacunes dans la communication auprès des clients. Si Free et Free Mobile ont déployé un dispositif d’information à deux niveaux (courriel initial puis numéro vert et service dédié), le courriel envoyé aux abonnés ne contenait pas toutes les informations obligatoires prévues par l’article 34 du RGPD.
Selon la CNIL, ces omissions empêchaient les victimes de comprendre directement les conséquences de la violation et les mesures de protection qu’elles pouvaient adopter pour limiter les risques.
Free Mobile épinglée pour conservation excessive de données
Un troisième manquement est retenu spécifiquement contre Free Mobile concernant la durée de conservation des données. Au moment du contrôle, l’opérateur n’avait pas mis en place de procédures permettant de trier et supprimer les données des anciens abonnés une fois leur conservation devenue inutile.
La CNIL a établi que Free Mobile conservait des millions de données d’abonnés sans justification pendant des durées excessives, en violation de l’article 5 du RGPD. L’opérateur a depuis initié un tri pour ne conserver que les données nécessaires au respect des obligations comptables pendant dix ans, et a supprimé une partie des données conservées de manière excessive. La société dispose de six mois pour finaliser cette opération de purge.
Image : © Cnil
The post RGPD : la Cnil inflige une amende de 42 millions € à Free et Free Mobile appeared first on Silicon.fr.

Vos données Free et Free Mobile ont été volées : la CNIL punit l’opérateur avec une lourde amende

La CNIL inflige une amende de 27 millions d’euros à Free Mobile et une amende de 15 millions d’euros à Free, qui ont été victimes d’une cyberattaque en octobre 2024. La commission estime, en effet, que la sécurité des systèmes de ces deux sociétés n’était pas assez solide. L’attaque a permis le vol de données personnelles liées à 24 millions de contrats d’abonnés.

FREE sanctionné après une fuite massive de données abonnés
Wall Street English face à une menace de fuite mondiale ?
Palantir - L'histoire secrète de l'œil numérique qui voit tout
Le 7 août 2019, dans le Mississippi, des centaines d'enfants rentrent de leur premier jour d'école. Cartables sur le dos, ils s'attendent à retrouver leurs parents pour raconter leur journée.
Mais à la place, ils découvrent des maisons vides ou des usines encerclées par des agents fédéraux. Ce jour-là, l'ICE (les services d'immigration américains) mène la plus grande opération de l'histoire du pays en un seul État : 680 personnes sont arrêtées, menottées et embarquées dans des camionnettes blanches.
L'enquête qui a mené à ces rafles n'a pas été montée "à l’ancienne" sur un tableau en liège avec des punaises et de la ficelle rouge. Dans des affidavits et les documents obtenus via des demandes FOIA, on voit apparaître un nom de module qui revient comme un sortilège : FALCON Tipline. Un outil Palantir vendu à la branche Homeland Security Investigations (HSI) et utilisé pour centraliser, recouper et exploiter des signalements, des identités, des liens, des infos de terrain… jusqu’à planifier des actions coordonnées comme celle du Mississippi.
Le plus "magique" (façon Mordor), c'est que tout ça s'appuie sur un contrat très concret, très administratif, qui décrit FALCON comme une plateforme de recherche fédérée et d’analyse, capable de faire parler ensemble des bases de données qui n'étaient pas censées se rencontrer. Voilà. Rien de secret... Juste le genre de PDF qui sent la paperasse… mais qui peut briser des vies.
Mais si cette logistique monstrueuse a pu être déployée avec une telle précision chirurgicale, c'est grâce à une technologie dont vous n'avez peut-être jamais entendu parler, mais qui sait déjà probablement tout de vous.
Son nom ? Palantir.
Pour comprendre comment une startup de la Silicon Valley est devenue l'œil de Sauron qui surveille le monde, il faut remonter au début des années 2000. On est juste après le 11 septembre. L'Amérique est en état de choc et ses agences de renseignement cherchent désespérément un moyen de "connecter les points" (connect the dots comme ils disent...) pour prévenir la prochaine attaque.
Le Pentagone essaie bien de lancer un programme de surveillance totale appelé Total Information Awareness, mais le projet est jugé trop orwellien et se fait descendre par l'opinion publique en 2003. C'est exactement à ce moment-là que Peter Thiel décide de fonder Palantir Technologies avec Stephen Cohen, Joe Lonsdale, Nathan Gettings et Alex Karp.
Ce qui est "marrant", c’est qu’on a enterré le programme (trop visible, trop caricatural), mais pas l’idée. Palantir arrive pile au bon moment : la même promesse, mais emballée dans un joli paquet cadeau d'outil d’analyse, vendue par une boîte privée, et surtout, développée directement avec les gens qui allaient s’en servir.
La surveillance version startup, avec des NDA, des badges et des salles sans fenêtre était née...
Peter Thiel, c'est un personnage à part dans la tech. Co-fondateur de PayPal, premier investisseur de Facebook, libertarien pur jus et fan absolu de J.R.R. Tolkien. Le nom "Palantir" vient d'ailleurs du Seigneur des Anneaux puisque ce sont ces pierres de vision qui permettent de voir à travers le temps et l'espace.
Le truc, c'est que chez PayPal, Thiel et son équipe avaient déjà développé des algorithmes de détection de fraude super performants baptisés "Igor". C'est pour cela que Thiel s'est dit "Hé, et si on appliquait ces mêmes méthodes de traque financière à la lutte antiterroriste ?"
Peter Thiel ( source )
Le problème, c'est qu'en 2004, personne à la Silicon Valley ne veut toucher à la défense. Les investisseurs flippent, du coup, Thiel et son fonds d'investissement posent environ 30 millions de dollars pour couvrir les premiers coûts et vont chercher un allié improbable : In-Q-Tel, le fonds de capital-risque à but non lucratif soutenu par la CIA.
In-Q-Tel injecte environ 2 millions de dollars et au delà de l'argent, c'est une surtout une validation capitale pour la société. Et c'est ainsi que durant trois ans, les ingénieurs de Palantir vont bosser main dans la main avec les analystes du renseignement pour construire leur premier logiciel : Gotham.
Et quand je dis "bosser main dans la main", c’est pas une image. Leur délire, c’était d’envoyer des ingénieurs directement chez les clients, dans les agences, parfois sur site sensible, pour modeler l’outil à la demande. Pas une ESN, hein… plutôt une greffe. Tu poses le logiciel, tu poses les devs, et tu laisses la créature grandir dans l’ombre.
Pour diriger cette boîte de surveillance, Thiel choisit Alex Karp. Un mec encore plus atypique que lui. Karp est un philosophe, titulaire d'un doctorat en théorie sociale de l'université de Francfort, dyslexique, qui ne sait pas conduire et qui passe cinq heures par jour à faire du ski de fond ou du Qigong. Il vit dans une baraque perdue dans le New Hampshire et se décrit comme un "gauchiste fou", alors que Thiel est un "dingue de droite". Ce duo improbable va pourtant créer l'entreprise la plus puissante et la plus secrète de la planète.
Alex Karp ( source )
Le fonctionnement de Gotham est simple sur le papier, mais terrifiant en pratique. Pensez à un aspirateur géant capable d'ingérer n'importe quel type de donnée : Imagerie satellite, rapports d'interrogatoires, conversations sur les réseaux sociaux, fichiers fiscaux, plaques d'immatriculation, relevés bancaires. Le logiciel fusionne tout ça pour créer un "jumeau numérique" du monde réel. Si vous avez un compte chez Ladar Levison (le fondateur de Lavabit qui a hébergé Snowden) ou que vous avez été mentionné dans une écoute de la NSA, Palantir peut recréer tout votre réseau social en quelques clics.
C'est d'ailleurs avec les révélations d'Edward Snowden que le monde a commencé à entrevoir l'ampleur du truc. En 2017, des documents montrent que Palantir proposait des outils comme "XKEYSCORE Helper" pour faciliter l'analyse des données capturées par la NSA. Le logiciel permettait aux agents de naviguer dans des masses de données privées avec une fluidité déconcertante. Même si Alex Karp jure sur tous les tons qu'il protège les libertés civiles, la réalité des contrats raconte une autre histoire.
Et ce n’est pas qu’un délire "NSA / USA". Dans la même veine, des docs évoquent aussi Kite, un système custom pour le GCHQ (les espions britanniques), avec des champs et des imports extensibles pour avaler des formats de données bien tordus. Palantir, évidemment, a tenté de calmer le jeu ensuite en expliquant que "XKEYSCORE helper" n’était qu’un module périphérique et limité, pas un accès à la matrice complète…
Mais l’histoire "secrète" de Palantir a aussi un épisode qui sent la naphtaline et le scandale. En effet, en 2010-2011, des emails fuités (merci Anonymous) ont montré qu'une dream team HBGary / Berico / Palantir avait participé à la préparation d’un plan de riposte contre WikiLeaks et ses soutiens. Dans le package, on parlait de méthodes sales, de pression, et même d’idées de désinformation. Résultat, Palantir a publiquement présenté ses excuses et a coupé les ponts avec HBGary.
Je vous parle quand même d'une boîte qui a récupéré le contrat Maven Smart System (le fameux Project Maven) quand Google l'a lâché suite à la révolte de ses employés. Maven utilise l'IA pour aider les analystes militaires à identifier des cibles au milieu d'un déluge de données de surveillance.
Et aujourd'hui, Palantir est partout.
En Ukraine, Alex Karp a été le premier PDG occidental à rencontrer Zelensky après l'invasion russe de 2022. Leurs logiciels servent à faire de la fusion de données à grande vitesse (drones, satellites, sources ouvertes) pour accélérer la décision militaire. Et ça ne s'arrête pas là puisqu'en juillet 2025, l'armée américaine a signé un accord-cadre monumental jusqu'à 10 milliards de dollars sur 10 ans pour consolider et simplifier l'achat des logiciels Palantir.
Mais Palantir ne s'arrête pas aux zones de guerre. L'entreprise s'infiltre dans nos services publics. Au Royaume-Uni, un consortium mené par Palantir a décroché un contrat de 330 millions de livres pour gérer la Federated Data Platform du NHS (le système de santé national). En septembre 2025, ils ont même remis ça avec un partenariat défense annoncé par le gouvernement britannique, censé débloquer jusqu'à 1,5 milliard de livres d'investissements et faire du Royaume-Uni leur QG européen défense. En France, la DGSI a longtemps utilisé Palantir avant d'essayer de construire sa propre alternative pour retrouver sa souveraineté numérique… sauf que fin 2025, le contrat a encore été prolongé "temporairement", en attendant que l’outil souverain arrive vraiment.
Et ce qui est vraiment inquiétant avec Palantir, c'est ce qu'ils proposent en matière de "police prédictive". Par exemple, à Los Angeles ou à la Nouvelle-Orléans, leurs algorithmes ont été utilisés pour tenter d'identifier des zones ou des individus à risque. En gros, le logiciel décide si vous avez le profil d'un futur délinquant en analysant vos liens sociaux et vos antécédents. À la Nouvelle-Orléans, le programme a même tourné pendant des années dans une discrétion quasi totale, sans que le conseil municipal ne soit vraiment au courant, jusqu'à ce que la presse sorte l'affaire. Des audits ont d'ailleurs montré que ces systèmes pouvaient renforcer les préjugés et cibler injustement certaines communautés. Tu m'étonnes...
Exemple de dashboard de police prédictive ( source )
Aujourd'hui, Palantir est cotée en bourse et sa valorisation explose littéralement (on parle d'environ 430 milliards de dollars début 2026). Alex Karp a réussi son pari à savoir rendre la surveillance de masse extrêmement rentable. L'entreprise vise d'ailleurs un chiffre d'affaires annuel autour de 4,4 milliards de dollars sur 2025, porté par sa nouvelle plateforme d'IA (AIP) et ses "agents" autonomes capables de structurer n'importe quelle base de données en un clin d'œil. Mais comme dans Tolkien, les palantír sont des outils dangereux. Celui qui les utilise peut être lui-même observé et corrompu.
Alors, faut-il avoir peur de Palantir ? Clairement oui !
Quand on voit comment Snowden explique la surveillance aujourd'hui, on comprend que Palantir est l'outil qui rend l'espionnage d'État accessible à n'importe quel analyste, sans qu'il ait besoin d'être un génie du code. C'est la démocratisation d'Orwell à grande échelle.
Bref, la prochaine fois que vous entendrez parler d'une startup qui veut "aider les gouvernements à mieux gérer leurs données", rappelez-vous de l'histoire du Mississippi en 2019 et de Palantir car derrière les beaux discours sur la sécurité, il y a souvent des algorithmes invisibles et des pierres de vision qui ne dorment jamais.
Sources :
- The Guardian - NHS Palantir Contract
- Amnesty International - Palantir Human Rights Risk
- The Intercept - How Palantir helped the NSA
- Bloomberg - Palantir and Israel Strategic Partnership
- Reuters - US Army contract and Maven prototype
- VICE - Comment Palantir est utilisé lors des raids ICE
- ICE (FOIA) - Contrat Palantir / HSI (FALCON)
- The Guardian - Documents FOIA sur la relation ICE / Palantir (Falcon, etc.)
- TechCrunch - Palantir et Cambridge Analytica (lien "personnel" d’un employé)
- TechCrunch - XKEYSCORE Helper & Kite (GCHQ)
- Palantir (blog) - Correcting the record (XKEYSCORE Helper)
- Forbes - Palantir s’excuse (affaire WikiLeaks / HBGary)
- The Verge - Le programme de police prédictive secret à la Nouvelle-Orléans
- Reuters - Accord-cadre US Army
- U.S. Army - Enterprise Agreement avec Palantir (31 juillet 2025)
- Gouvernement britannique - Partenariat défense avec Palantir (septembre 2025)
- Defense News - Karp rencontre Zelensky (2022)
- Reuters - Palantir et le targeting en Ukraine
- Next.ink - La DGSI renouvelle encore son contrat avec Palantir (décembre 2025)

Comment auditer les apps mobiles qui vous traquent sans votre consentement
Si vous avez installé une app récemment, vous avez surement remarqué le petit popup RGPD qui vous demande votre consentement pour les cookies et le tracking. Vous cliquez évidemment sur "Refuser" en vous disant que c'est réglé... Ben en fait... non.
Des chercheurs ont passé au crible 400 applications mobiles populaires (200 sur Android, 200 sur iOS) et résultat, 100% d'entre elles violent au moins une exigence du RGPD. Et près de la moitié de ces apps continuent à contacter des trackers MÊME APRÈS que vous ayez dit non.
Sympa le "consentement" !
Du coup, plutôt que de vous laisser vous faire gauler par ces mouchards, je vous propose un petit guide pour auditer vous-même les apps que vous utilisez. Sans vous prendre la tête, promis.
Ce qu'il vous faut
- Un téléphone Android (iOS, c'est plus compliqué, Apple verrouille tout)
- TrackerControl , l'outil d'audit qu'on va utiliser
- 10 minutes de votre temps
- L'option "Sources inconnues" activée dans les paramètres sécurité d'Android (l'app n'est pas sur le Play Store...)
Étape 1 : Installer TrackerControl
TrackerControl est donc un outil open source développé par des chercheurs. La bestiole analyse le trafic réseau de chaque app pour détecter les connexions vers des serveurs de tracking.
Rendez-vous sur le GitHub du projet et téléchargez l'APK. Installez-le en autorisant temporairement les sources inconnues.
Étape 2 : Lancer l'audit
Une fois installé, TrackerControl se comporte comme un VPN local (vos données ne sortent pas de votre téléphone, rassurez-vous). Activez-le et lancez l'app que vous voulez auditer.
L'outil va alors intercepter toutes les connexions sortantes et les classer : publicité, analytics, tracking social, fingerprinting... Y'a de quoi faire le tri !
L'interface de TrackerControl - sobre mais efficace ( Source )
Étape 3 : Interpréter les résultats
Ce qu'il faut surveiller :
- Connexions AVANT toute action : Si l'app contacte des trackers dès son lancement, avant même que vous ayez vu un popup de consentement, c'est une violation du critère "Prior consent"
- Connexions APRÈS refus : Relancez l'app après avoir refusé le tracking. Si des connexions partent quand même vers Google Analytics, Facebook ou autres... bingo !
- Le nombre de domaines contactés : Une app de lampe torche qui contacte 15 serveurs différents, c'est suspect (oui ça existe)
Détail des trackers détectés - on voit tout ce qui sort ( Source )
Les 6 critères RGPD que les apps violent
L'étude suivante a identifié six types de violations :
- Prior : L'app collecte VOS données avant de vous demander votre avis
- Informed : On vous dit pas vraiment ce qu'on fait avec vos données
- Freely-given : Pas le choix, c'est "accepte ou dégage"
- Specific : Le consentement est trop vague, genre "améliorer nos services"
- Unambiguous : L'interface est conçue pour vous faire cliquer sur "Accepter"
- Revocable : Vous dites non, mais ça continue quand même (près de la moitié des apps)
C'est flippant, non ? Comme je vous l'expliquais dans mon article sur le mythe du smartphone espion , le vrai problème n'est pas le micro qui vous écoute... c'est ce réseau de data brokers qui aspire tout ce qu'ils peuvent.
Dépannage
Et si TrackerControl ne détecte rien, vérifiez que le "VPN" est bien actif (icône de clé dans la barre de notifications). Certaines apps détectent les VPN et changent leur comportement, du coup relancez plusieurs fois pour être sûr.
Pour aller plus loin dans la protection de vos données, j'ai publié également ce guide sur la suppression de vos données personnelles qui vous donnera quelques pistes.
Voilà, maintenant vous avez les outils pour aller à la pêche aux trackers. De quoi regarder vos apps d'un autre œil, j'imagine !

Piratage de la Fédération française de tir : nouveau cambriolage
Et si votre Wi-Fi suivait votre posture
Euria, l’IA “cloud éthique” d’Infomaniak
Proximus confirme une consultation non autorisée de contacts
Service de Veille ZATAZ : détecter fuites de données, accès compromis et usurpations avant l’incident
ShinyHunters menace Pornhub : chantage aux clients premium
Prospection politique : la CNIL sanctionne cinq candidats
Look up pirates, coulisses des fuites françaises
Fuite de données chez le groupe Schmidt
Fédérations sportives françaises visées par des cyberattaques
Fuite chez MédecinDirect : 285 000 comptes exposés
Ackify CE : preuve de lecture cryptographique en Go + Vue3
Ackify CE est une plateforme open-source (AGPL v3) permettant de générer des preuves de lecture cryptographiquement vérifiables pour des documents internes.
Le problème
Les organisations doivent souvent prouver qu'un collaborateur a lu un document (politique RGPD, charte de sécurité, formation obligatoire). Les solutions existantes sont soit trop lourdes (signature électronique qualifiée comme DocuSign à 10-30€/utilisateur/mois), soit non sécurisées (simple email).
La solution
Ackify génère des preuves de lecture cryptographiques avec :
- Signatures Ed25519 (même algo que SSH)
- Horodatage immutable (PostgreSQL triggers)
- Hash chain blockchain-like
- Vérification offline possible
Cas d'usage
- Validation de politiques internes (sécurité, RGPD)
- Attestations de formation obligatoire
- Prise de connaissance de procédures
- Accusés de réception contractuels
Différence avec DocuSign
Ackify n'est pas une alternative à DocuSign pour des contrats juridiques. C'est une solution simple pour des besoins internes où la signature qualifiée est overkill.
N'hésitez pas si vous avez des questions techniques !
- lien nᵒ 1 : Ackify.eu
- lien nᵒ 2 : Github
- lien nᵒ 3 : Documentation
Installation
curl -fsSL https://raw.githubusercontent.com/btouchard/ackify-ce/main/install/install.sh | bash
cd ackify-ce
nano .env # Configurer OAuth2
docker compose up -d
Installation complète en ~5 minutes.
Stack technique
Backend
- Go 1.24 (Clean Architecture / DDD)
- PostgreSQL 16
- Chi Router
- OAuth2 (Google, GitHub, GitLab, custom) ou Magic Link (passwordless)
Frontend
- Vue 3 + TypeScript
- Tailwind CSS
- i18n (FR, EN, ES, DE, IT)
DevOps
- Docker distroless < 30 MB
- CI/CD GitHub Actions
- Tests : 72,6% couverture (180 tests unitaires + 33 intégration)
Commentaires : voir le flux Atom ouvrir dans le navigateur
L’UE propose d’assouplir ses règles sur l’IA et le RGPD
La Commission européenne a présenté ce mercredi un ensemble de modifications appelé « Omnibus numérique » (Digital Omnibus) visant à alléger la réglementation numérique qui s’applique aux 27 États membres de l’UE, dans un contexte de pression pour améliorer sa compétitivité face aux États-Unis et à la Chine dans le domaine de l’intelligence artificielle.
Ces propositions nécessitent l’approbation des pays de l’Union européenne et du Parlement européen.
Report de l’application des règles sur l’IA à haut risque
Les entreprises utilisant des systèmes d’IA considérés comme « à haut risque » bénéficieraient d’un délai supplémentaire de 16 mois avant l’entrée en vigueur des réglementations strictes. La date d’application serait ainsi repoussée de août 2026 à décembre 2027.
Les systèmes d’IA à haut risque concernent les domaines des forces de l’ordre, de l’éducation, de la justice, de l’asile et de l’immigration, des services publics, de la gestion du personnel, des infrastructures critiques comme l’eau, le gaz ou l’électricité, ainsi que l’utilisation de données biométriques.
Modifications ciblées de la loi sur l’IA
La Commission propose également des amendements spécifiques à la loi sur l’IA qui prévoient :
Simplifications pour les PME : Extension de certaines simplifications accordées aux petites et moyennes entreprises et aux petites entreprises de taille intermédiaire, notamment des exigences de documentation technique simplifiées, permettant d’économiser au moins 225 millions € par an.
Élargissement des mesures de conformité : Davantage d’innovateurs pourront utiliser des « sandboxes » réglementaires (environnements de test contrôlés), y compris une sandbox au niveau de l’UE à partir de 2028, ainsi que davantage de tests en conditions réelles, notamment dans des secteurs clés comme l’automobile.
Renforcement de la supervision : Les pouvoirs de l’Office AI seront renforcés et la surveillance des systèmes d’IA construits sur des modèles d’IA à usage général sera centralisée, réduisant ainsi la fragmentation de la gouvernance.
Facilitation de l’accès aux données personnelles
La proposition vise à clarifier le moment où des données cessent d’être considérées comme « personnelles » au regard de la législation sur la vie privée. Selon le texte, des informations anonymisées ne seraient pas considérées comme des données personnelles si l’entité qui les traite n’a pas les moyens de réidentifier la personne concernée.
Les entreprises seraient autorisées à utiliser de vastes ensembles de données pour l’entraînement de systèmes d’IA, même s’ils contiennent des informations personnelles sensibles comme des données de santé ou biométriques, à condition de faire des efforts raisonnables pour les supprimer.
Amélioration de l’accès aux données pour l’innovation
L’Omnibus numérique vise à améliorer l’accès aux données en tant que moteur clé de l’innovation, en simplifiant les règles relatives aux données :
Consolidation de la législation : Regroupement des règles européennes sur les données via le Data Act, fusionnant quatre textes législatifs en un seul pour une clarté juridique accrue.
Exemptions ciblées : Introduction d’exemptions ciblées à certaines règles du Data Act concernant le changement de fournisseur cloud pour les PME et petites entreprises de taille intermédiaire, générant environ 1,5 milliard d’euros d’économies ponctuelles.
Nouveaux outils de conformité : Fourniture de nouvelles orientations sur la conformité au Data Act via des clauses contractuelles types pour l’accès et l’utilisation des données, ainsi que des clauses contractuelles standard pour les contrats de cloud computing.
Soutien aux entreprises d’IA européennes : Déblocage de l’accès à des ensembles de données de haute qualité et récentes pour l’IA, renforçant le potentiel d’innovation global des entreprises dans toute l’UE.
Réformer le RGPD
Des amendements ciblés au Règlement général sur la protection des données (RGPD) harmoniseront, clarifieront et simplifieront certaines règles pour stimuler l’innovation et soutenir la conformité des organisations, tout en maintenant intact le cœur du RGPD et le plus haut niveau de protection des données personnelles.
Les amendements visent à moderniser les règles relatives aux cookies pour améliorer l’expérience des utilisateurs en ligne. Les bannières de consentement aux cookies apparaîtraient beaucoup moins fréquemment.
Les utilisateurs pourraient définir leurs préférences en matière de cookies une seule fois, soit par un simple clic valable six mois, soit via les paramètres de leur navigateur ou système d’exploitation applicables à tous les sites web. Certaines fonctions basiques des sites, comme le comptage des visiteurs, ne nécessiteraient plus de fenêtres de consentement.
Les sites web devraient toutefois toujours obtenir un consentement explicite avant d’accéder aux données stockées sur les appareils des utilisateurs, comme la localisation ou l’historique de navigation.
Simplification des rapports de cybersécurité
L’ Omnibus numérique introduit un point d’entrée unique où les entreprises peuvent remplir toutes leurs obligations de déclaration d’incidents. Actuellement, les entreprises doivent signaler les incidents de cybersécurité en vertu de plusieurs lois, notamment la directive NIS2, le RGPD et la loi sur la résilience opérationnelle numérique (DORA). L’interface sera développée avec des garanties de sécurité robustes et fera l’objet de tests approfondis pour garantir sa fiabilité et son efficacité.
Allègement des contraintes administratives pour les PME
Les petites et moyennes entreprises développant ou utilisant des systèmes d’IA feraient face à des exigences de documentation considérablement réduites, ce qui pourrait leur faire économiser au moins 225 millions d’euros par an, selon la Commission.
Les petites entreprises seraient également exemptées de certaines règles relatives au changement de fournisseur cloud, leur permettant d’économiser environ 1,5 milliard d’euros en coûts de conformité ponctuels.
Le plan prévoit aussi la création d’un « European Business Wallet », un passeport numérique fonctionnant dans les 27 États membres de l’UE, permettant aux entreprises de signer et d’horodater numériquement des documents et de gérer des dépôts administratifs à travers l’Europe. La Commission estime que cet outil pourrait éliminer jusqu’à 150 milliards € de coûts administratifs annuels une fois largement adopté.
Un contexte de critiques et de pressions
Cette proposition intervient après une mobilisation des entreprises technologiques européennes et américaines, de l’administration Trump et de membres du bloc pour réformer des réglementations jugées excessives et mal définies.
Dans un rapport de 2024 sur la compétitivité européenne, l’ancien Premier ministre italien Mario Draghi avait identifié l’étendue de la réglementation numérique du bloc comme un frein aux performances des entreprises technologiques locales.
Le président français Emmanuel Macron et le chancelier allemand Friedrich Merz ont apporté leur soutien à certaines parties de la proposition lors d’un sommet sur la souveraineté numérique à Berlin cette semaine.
Des groupes de la société civile ont toutefois mis en garde contre le fait que ces changements favoriseraient les intérêts des grandes entreprises technologiques et affaibliraient les protections de la vie privée en place depuis deux décennies. Les responsables de la Commission maintiennent que les modifications préserveraient les normes strictes de confidentialité de la région.
The post L’UE propose d’assouplir ses règles sur l’IA et le RGPD appeared first on Silicon.fr.
