Vue normale

Passer au Dumbphone rend-il plus con ?

Par : Korben
20 janvier 2026 à 10:56

Ah qu'ils sont chaud bouillants les technophobes de la Gen Z !

Enfin technophobes c'est un bien grand mot pour des gens qui veulent juste arrêter de scroller comme des zombies sur TikTok à 3h du matin, mais cela ne vous aura pas échappé, la nouvelle tendance, ou du moins l'aspiration de pas mal de djeuns si j'en crois Wired , c'est de jeter son iPhone dernier cri, pour repasser au bon vieux téléphone à clapet de maman et papa.

Mais attention, décrocher de cette manière des réseaux, pourrait bien vous coûter quelques neurones au passage. Et déjà qu'il ne nous en reste plus beaucoup collectivement, ça peut faire mal !

Le délire théorique derrière tout ça c'est ce qui s'appelle l'hypothèse de "l'esprit étendu" (Extended Mind) balancée par les philosophes Andy Clark et David Chalmers en 1998.

Pour nos 2 gugusses, nos outils tech ne sont pas uniquement des gadgets. Non, ce sont de véritables extensions de notre cerveau. RÉELLEMENT !! Du coup, retirer votre smartphone de l'équation, ce serait un peu comme vous infliger un handicap cognitif volontairement. Clark parle même d'une "classe désémancipée" qui n'arriverait plus à naviguer dans une société où les appli sont devenues la "loi", du parking à l'authentification bancaire.

Pour ceux qui débarquent (bienvenue, soutenez moi sur Patreon , ahaha !), un dumbphone c'est simplement un mobile basique qui se concentre sur l'essentiel à savoir téléphoner à sa grand-mère et envoyer des SMS au livreur Amazon. Aux chiottes les notifications qui vibrent dans votre poche toutes les dix secondes et les photos de vacances de vos amis hipsters.

Alors je trouve cette théorie de la désémancipation (dur dur à écrire ^^) intéressante mais est ce que Wired ne pousserait pas le bouchon un peu trop loin (qui a dit dans sa tête "Maurice" ?? hein ??).

Est-ce qu'on est vraiment devenus "handicapés" parce qu'on ne sait plus trouver une pizzeria sans Google Maps ? C'est galère, certes, mais de là à parler de lésions cérébrales... faut pas pousser mémé dans les orties ! Je ne sais pas si cette théorie sera confirmée un jour mais si c'est le cas et que le smartphone est une extension indispensable à notre cerveau ramolli, je pense que l'IA aura exactement le même effet.

Heureusement, si vous voulez tenter l'aventure sans finir comme un ermite au fond d'une grotte (oui, j'aime le drame), il existe des solutions hybrides. Prenez le CAT S22 par exemple, c'est un truc super cool qui ressemble à un téléphone de chantier qui aurait survécu à une guerre mondiale (peut-être bientôt si notre trio Macron Poutine Trump continuent leur manège), mais il fait aussi tourner un Android hyper léger, ce qui permet d'y installer le strict minimum : Spotify, Maps et WhatsApp.

Comme ça vous avez l'outil, mais sans la tentation de mater des Reels pendant trois heures. Dans le même genre, le Qin F21 Pro (le petit cousin de chez Xiaomi) permet de garder un pied dans le monde moderne tout en fermant la porte au grand n'importe quoi.

Et si vous êtes plutôt branché bidouille logicielle, jetez un œil à l'application The Boring Mode . Elle transforme votre terminal actuel en un truc austère mais utilisable quand même. Et pour les puristes, des modèles comme le Punkt MP02 ou le Light Phone 2 sont des bijoux de design qui ne vendront pas votre vie privée au premier GAFAM venu. Enfin, normalement, c'est fabriqué en Chine quand même...ahahah.

D'ailleurs, si comme moi, vous avez encore votre vieux Nokia N900 qui prend la poussière, sachez que certains s'amusent encore à lui greffer des supercondensateurs et de l'USB-C. Et c'est ça finalement, la vraie liberté... C'est choisir ses outils au lieu de les subir comme un cyber-mouton.

Bref, pas mal de temps gagné et surtout un peu de sérénité retrouvée si vous arrivez à décrocher de la matrice. Maintenant, à voir si ça nous rend plus con ou pas...

Revue de presse de l’April pour la semaine 3 de l’année 2026

Par : echarp
19 janvier 2026 à 14:24

Cette revue de presse sur Internet fait partie du travail de veille mené par l’April dans le cadre de son action de défense et de promotion du logiciel libre. Les positions exposées dans les articles sont celles de leurs auteurs et ne rejoignent pas forcément celles de l’April.

[Numerama] Contrôles CAF: comment fonctionne le nouvel algorithme de data mining?

✍ Amine Baba Aissa, le dimanche 18 janvier 2026.

Alors que le dispositif avait suscité de nombreuses critiques au sein d’associations en France, la CNAF a choisi de ne pas renoncer à son algorithme de contrôle des allocataires et vient de déployer un nouveau modèle de «data mining».​ Cette fois, l’organisme mise sur une communication plus transparente et a décidé

[Mediapart] Wikipédia, les 25 ans d'une utopie réussie devenue le punching-ball de l'extrême droite (€)

✍ Dan Israel, le jeudi 15 janvier 2026.

L’encyclopédie en ligne, gratuite et coopérative, a été lancée le 15 janvier 2001. Avec 65 millions d’articles en 326 langues, son succès a dépassé toutes les attentes, malgré les critiques régulière…"

[Républik IT Le Média] Software Heritage: dix ans de préservation du patrimoine applicatif

✍ Bertrand Lemaire, le mercredi 14 janvier 2026.

Le 28 janvier 2026, Software Heritage fêtera ses dix ans à l’Unesco. Morane Gruenpeter, directrice de la verticale Open-Science, et Bastien Guerry, responsable des partenariats, présentent cette initiative qui vise à préserver le patrimoine applicatif quelque soit le sort des éditeurs ou les feuilles de route de ceux-ci.

[ZDNET] Logiciel libre et souveraineté: la Commission européenne lance un appel à contributions

✍ Thierry Noisette, le lundi 12 janvier 2026.

La Commission propose jusqu’au 3 février aux développeurs, entreprises et communautés open source, administrations et chercheurs de contribuer à la future stratégie européenne d’écosystème numérique ouvert. En identifiant les obstacles à l’adoption de l’open source et en suggérant des mesures concrètes.

Et aussi:

Commentaires : voir le flux Atom ouvrir dans le navigateur

L’IA est-elle en train de tuer l’Open Source ?

Par : Korben
19 janvier 2026 à 08:34

IA par-ci, IA par-là.. même ceux qui critiquent l'IA générative, s'en servent pour faire leurs posts de blog remplis de fake blabla. Mais cette fois on touche un peu au nerf de la guerre, puisque Daniel Stenberg, le créateur de Curl, a lancé son petit cri d'alarme la semaine dernière.

Curl est un outil qui est dispo dans à peu près tous les systèmes qui ont une adresse IP et le problème de Daniel c'est que son projet reçoit de TROP nombreux rapports de sécurité bidon générés à la chaîne par des LLM.

Du coup, ça lui fait perdre pas mal de temps ainsi qu'aux mainteneurs du projet, pour trier le bon grain de l'ivraie

C'est tellement critique qu'il envisage sérieusement de fermer son programme de Bug Bounty... Bref, ça craint pour l'avenir de la collaboration autour de l'open source.

Une fois encore, et au risque de me répéter, le problème n'est pas l'outil. l'IA est une super aide pour analyser du code mais quand on y ajoute une incitation financière (un bounty quoi), ça devient la fête à la paresse intellectuelle. Des "chasseurs de primes" sans compétences, s'emparent alors de scripts à base d'IA pour scanner des repos et copient collent les rapports sans les lire.

L'idée pour eux, c'est qu'en faisant ça massivement, ils grappillent un petit peu de sous.

Et de ce que j'ai compris, Curl n'est pas le seul projet à vivre ce calvaire. Par exemple, Godot (le moteur de jeu) a lui aussi dû prendre des mesures contre ce genre de contributions GenAI, et ça s'inquiète aussi beaucoup du côté du noyau Linux...

Tous ces petits indices me font donc me demander quel est l'impact réel de l'IA sur l'open source... Parce que d'un côté, c'est quand même une super aide. Ça abaisse la barrière à l'entrée. Ça permet de voir des choses qu'un humain n'aurait pas forcément vues. Mais d'un autre côté, ça inonde les mainteneurs de projets sous un tas de rapports "slop" (C'est LE mot à la mode pour désigner du contenu merdique fait par IA ^^) contenant des failles imaginaires ou cassant des fonctionnalités existantes.

Bref, c'est un peu la merde parce que les mainteneurs de repos sont en train de vriller parano, à fliquer les contributeurs au lieu de collaborer, et je trouve que ça casse un peu l'essence même de l'open source qui est la confiance et la réputation.

Quand vous poussez un bon gros commit, vous annoncez aux barbus en rut que c'est votre boulot, avec du vrai jus de cervelle derrière. Mais si c'est un LLM qui a tout pondu et que vous n'avez même pas relu, vous n'êtes plus un contributeur : vous êtes juste un spammeur.

Alors on fait quoi ?

On revient comme dans les années 90 avant l'IA, par pur "Oui mais moi j'ai des principes", ou est-ce qu'on apprend à utiliser ces modèles comme des assistants et on commence à s'éduquer les uns les autres pour essayer de faire de la qualité en remettant l'humain dans la boucle ?

Moi je trouve que l'IA générative c'est génial, mais je trouve aussi que les gens l'utilisent mal, et c'est ça qui produit ce slop en fait. Et je trouve ça con parce qu'on pourrait aller tellement plus loin si les gens apprenaient à collaborer avec l'IA au lieu de juste s'en servir pour pouvoir regarder Netflix pendant que ça bosse...

Donc les amis, si vous utilisez une IA pour trouver un bug, il n'y a pas de soucis avec ça (c'est mon point de vue évidemment), mais au moins vérifiez-le, rejouez-le, essayez de le comprendre, sinon bah abstenez-vous quoi.

Et si ce sujet de la gouvernance des projets libres vous plaît, je vous invite à jeter un œil aux discussions sur les bannissements dans le noyau Linux et les distribs . Rappelez-vous aussi de "l'incident" de la backdoor XZ Utils qui aurait pu très mal tourner...

L'open source et le libre, c'est fragile et il faut en prendre soin.

Sourc e

Matthew McConaughey™ brevette son visage

Par : Korben
15 janvier 2026 à 07:24

Quel grand philosophe du XXIe siècle considère que l'identité personnelle est le dernier rempart contre les algos ?

Hé oui, il s'agit bien de Luciano Floridi , qui défend depuis le milieu des années 2000 le concept de vie privée informationnelle. Pour lui, la vie privée n'est pas une question de secret, mais un droit fondamental à l'immunité personnelle contre les altérations non désirées de l'identité, qu'elles soient actives (vol, clonage, manipulation de données) ou passives (imposition d'informations que l'on n'a jamais choisies).

Autrement dit, notre identité n'est pas un stock de données exploitables, mais une entité informationnelle qui mérite une protection en tant que telle.

Et cette idée vient de trouver une incarnation très concrète à Hollywood.

Matthew McConaughey vient en effet de déposer plusieurs marques couvrant son image, sa voix et même son légendaire "Alright, alright, alright". L'objectif affiché c'est de créer un périmètre juridique pour empêcher l'utilisation de son identité par des systèmes d'IA sans son consentement.

Sur le papier, ça ressemble à un coup de maître mais dans les faits, c'est surtout le symptôme d'une industrie qui panique.

Car une marque ne protège pas une personne, elle protège un signe distinctif dans un cadre commercial. Autrement dit, elle fonctionne très bien pour attaquer des usages visibles, monétisés, centralisés, genre typiquement, des pubs, des vidéos sponsorisées ou des produits qui exploiteraient l'image ou la voix de McConaughey sans autorisation.

En revanche, les outils de face-swapping ou de synthèse vocale se foutent royalement des dépôts de marque. Un type qui fait tourner FaceFusion , Roop ou un modèle open source sur un serveur anonyme ne va pas vérifier si un sourire, une intonation ou une phrase d'accroche sont enregistrés à l'USPTO (C'est l'INPI des USA).

Alors oui, c'est vrai, cette stratégie peut permettre de nettoyer les grandes plateformes comme YouTube, Instagram ou TikTok à coups de demandes de retrait... Mais pour le reste du web, les barrières juridiques sont contournables en deux clics par des modèles décentralisés qui n'ont ni frontières ni service juridique.

Heureusement, pendant ce temps, le cadre légal évolue quand même un peu.

En Europe, l' AI Act impose des obligations de transparence pour les contenus générés ou manipulés par IA, notamment les deepfakes, en exigeant que leur nature artificielle soit clairement signalée dans de nombreux cas. Ce n'est donc pas une interdiction générale, puisqu'on passe du "on peut le faire" au "on doit le dire", mais c'est déjà pas mal.

Et en France, la loi SREN est également venue renforcer l'arsenal pénal, notamment contre les deepfakes non consensuels, en particulier lorsqu'ils portent atteinte à la dignité ou ont une dimension sexuelle.

Maintenant aux États-Unis, il y a le projet de loi NO FAKES Act proposé au Congrès qui vise à donner aux individus un droit fédéral clair pour contrôler l'utilisation de répliques numériques non autorisées de leur voix ou de leur image. Contrairement aux dépôts de marque, ce texte cherche donc à créer une base juridique uniforme pour réclamer la suppression ou l'interdiction d'un deepfake non consenti, avec heureusement, des exceptions pour les œuvres protégées comme les documentaires, les commentaires ou la satire.

Cependant, comme je le souligne dans mon article à ce sujet, le texte tel qu’il est rédigé pose des problèmes sérieux pour l’écosystème open source et pourrait imposer des mécanismes de "notice and stay down" (retrait permanent) sans protections claires contre les erreurs ou les abus, ce qui pourrait refroidir fortement l’innovation dans les outils d’IA générative.

Le problème reste donc identique... même avec des lois comme celle-ci ou la loi TAKE IT DOWN Act qui criminalise certaines formes de deepfakes non désirés, les cadres juridiques peinent à suivre la vitesse d’évolution des modèles et des usages. Et voilà comment on se retrouve avec un McConaughey qui tente de sécuriser son périmètre avec les outils qu'il a sous la main.

C'est plutôt rationnel comme approche, mais c'est surtout un aveu d'impuissance, car protéger une voix ou un visage aujourd'hui avec le droit des marques ou du rafistolage de petits bouts de lois, c'est comme essayer de vider l'océan avec une petite cuillère en argent gravée à son nom.

Du coup, quelle serait la vraie solution ?

Hé bien peut-être arrêter de croire que le droit d'auteur et les bricolages juridiques du XXe siècle peuvent faire le job au XXIe. Comme le défend Floridi, il faudrait un cadre global qui traite l'identité personnelle comme une donnée inaliénable, protégée par un véritable droit à la vie privée informationnelle, et non comme une marque de sac à main de luxe qu'on dépose à l'INPI ou à l'USPTO.

Bref, Matthew essaie de poser une clôture, mais l'IA a déjà sauté par-dessus.

A ce train là, je ne donne pas cher du futur de notre propre visage et de notre propre voix.

Source

Google est en train de braquer l'IA

Par : Korben
15 janvier 2026 à 06:48

J'sais pas si vous l'avez senti mais Google est peut-être bien en train de gagner la course à l'IA non pas par son génie technique pur, mais par un bon gros hold-up sur nos infrastructures et nos vies privées.

C'est vrai que d'après pas mal de spécialistes IA, Gemini serait désormais le modèle le plus performant du marché. Super. Mais est ce que vous savez pourquoi il est en train de gagner ?

Hé bien parce que Google possède "tout le reste". Contrairement à OpenAI qui doit quémander pour choper des utilisateurs sur son application, l'IA de Mountain View s'installe de force partout où vous êtes déjà. Dans Android, dans Chrome, et même bientôt au cœur de votre iPhone via une intégration avec Siri. C'est la stratégie Internet Explorer des années 90, mais version 2026. Brrrr…

Alors oui c'est pratique d'avoir une IA qui connaît déjà vos mails et vos photos... Sauf que non. Car Gemini utilise nos données pour absolument tout... Sous couvert de "Personal Intelligence", l'outil se connecte à vos recherches, votre historique YouTube, vos documents et vos photos. Mais pas d'inquiétude, c'est pour votre bien, évidemment. Ahahaha !

Après si vous croyez que ce pouvoir ne sera pas utilisé pour verrouiller encore plus le marché, c'est que vous avez loupé quelques épisodes. J'en parlais déjà avec l'intégration forcée de l'IA dans vos apps Android , Google change les règles du jeu en plein milieu de la partie. On se retrouve donc face à un monopole full-stack, des puces TPU maison jusqu'à l'écran de votre smartphone.

Et pendant que la Chine sécurise sa propre souveraineté cyber en virant le matos occidental, nous, on continue d'ouvrir grand la porte.... Les amis, si demain Google décide de changer ses CGU (encore) ou de monétiser votre "intelligence personnelle", vous ferez quoi ?

Bref, le géant de la recherche avance ses pions et étouffe peu à peu la concurrence avant même qu'elle puisse respirer. Notez vous ça sur un post-it afin de le relire régulièrement : Plus une IA est "intégrée", plus elle est intrusive. Donc si vous voulez vraiment garder le contrôle, il va falloir commencer à regarder du côté des modèles locaux et des alternatives qui ne demandent pas les clés de votre maison pour fonctionner.

A bon entendeur...

Source

Chine vs USA - Le grand divorce de la cybersécurité est acté

Par : Korben
15 janvier 2026 à 06:36

La nouvelle est tombée hier soir et elle fait boum boum boum dans le monde feutré de la tech... En effet, Pékin a officiellement demandé aux entreprises chinoises de mettre à la porte les logiciels de cybersécurité américains et israéliens.

C'était prévisible et quand j'ai lu ça, je me suis dit, tant mieux pour eux !

Concrètement, cette annonce, ça veut dire que des géants comme Broadcom, VMware, Palo Alto Networks, Fortinet ou encore l'israélien Check Point sont désormais persona non grata dans les systèmes d'information de l'Empire du Milieu.

La raison officielle, c'est la sécurité nationale comme d'hab. Mais aussi parce que la Chine en a marre de dépendre de technologies qu'elle ne contrôle pas (et qui pourraient bien cacher deux-trois mouchards de la NSA, on ne sait jamais ^^).

Alors vous allez me dire "Oulala, les méchants chinois qui se ferment au monde". Sauf que non... en réalité, ils appliquent juste une stratégie de souveraineté technologique sans concession. Et en remplaçant le matos étranager par du matos local, ils commencent le grand ménage.

Et pendant ce temps là en Europe, on continue d'installer joyeusement des boîtes noires américaines au cœur de nos infrastructures critiques, en priant très fort pour que l'Oncle Sam soit gentil avec nous. Yoohoo !

J'en parlais déjà à l'époque de l'affaire Snowden ou plus récemment avec les backdoors découvertes un peu partout mais la dépendance technologique, c'est évidemment un risque de sécurité béant. Pire, si demain Washington décide de "couper le robinet" ou d'exploiter une porte dérobée, on est, passez-moi l'expression, dans la merde.

La Chine l'a compris et investit donc massivement dans ses propres solutions, comme avec l'architecture RISC-V pour s'affranchir d'Intel et AMD. C'est une démarche cohérente et c'est même assez fendard quand on connaît l'histoire des groupes comme APT1 qui ont pillé la propriété intellectuelle occidentale pendant des années.

Maintenant qu'ils ont un bon niveau, ils ferment la porte...

Du coup, sa fé réchéflir car est-ce qu'on ne devrait pas, nous aussi, arrêter de faire les vierges effarouchées et commencer à construire sérieusement notre autonomie ? Il parait que c'est en cours... moi j'attends de voir.

Bref, la Chine avance ses pions et sécurise son périmètre et nous, baaah, j'sais pas... On remue nos petits bras en l'air en disant des choses au pif.

Source

Bruxelles veut (enfin !!) miser sur l'Open Source pour se libérer des GAFAMs

Par : Korben
14 janvier 2026 à 07:26

Alors ça c'est la news du jour ! C'est pas trop tôt !

Bruxelles passe enfin à la vitesse supérieure et réalise que confier une partie critique de sa souveraineté numérique à des acteurs extérieurs n'était peut-être pas l'idée du siècle. Vieux motard que j'aimais comme disait ma grand-mère.

Le QG de ceux qui viennent de comprendre l'intérêt du libre

La Commission européenne vient de lancer ce qu'elle appelle un "Appel à contributions" (ou Call for Evidence en angliche) autour de l'Open Source. Et attention, l'idée c'est pas juste d'utiliser VLC ou LibreOffice sur les PC des fonctionnaires mais carrément de revoir la stratégie 2020-2023 pour faire de l'open source une véritable infrastructure essentielle pour l'Europe.

En gros, selon la Commission, 70 à 90 % du code de l'économie numérique repose sur des briques open source sauf que la valeur commerciale et stratégique de tout ça, file trop souvent hors de l'UE, chez nos amis les géants américains de la tech. Du coup, ça part vite en dépendance technologique, risques sur la supply chain, souveraineté en carton... la totale.

L'objectif est donc de préparer une stratégie sur les "Écosystèmes Numériques Ouverts Européens" qui est un joli nom pour dire qu'on veut arrêter d'être les dindons de la farce et qu'on veut réduire notre dépendance. Sécurité, résilience, indépendance... les mots-clés sont lâchés.

Maintenant si vous voulez mon avis, c'est une excellente nouvelle (même si j'aurais aimé lire ça il y a 10 ans) car l'Europe a un vivier de développeurs incroyable, mais on a trop souvent laissé nos pépites se faire racheter ou vampiriser. D'ailleurs, si le sujet de la souveraineté tech vous intéresse, jetez un oeil à mon article sur l'initiative Go European qui listait déjà des alternatives bien de chez nous.

La consultation court du 6 janvier au 3 février 2026 (jusqu'à minuit). C'est court, mais c'est le moment ou jamais de l'ouvrir si vous êtes développeur, entrepreneur ou juste un citoyen concerné par le fait que nos données ne soient pas totalement sous contrôle étranger.

Bref, à vous de jouer si vous voulez que ça bouge.

C'est par là si ça vous tente : La consultation officielle .

Source

Force technologique américaine, l’État recrute ses remplaçants

12 janvier 2026 à 13:17
Washington lance la "Force technologique américaine" : après les coupes, retour du privé et nouveaux risques d’accès et de gouvernance.

James : manifeste cyber et sidération informationnelle

9 janvier 2026 à 16:13
BreachForums, Shiny Hunters, James : analyse cyber d’un manifeste en ligne mêlant renseignement, intimidation informationnelle... et diffusion de la base de données de BreachForums....

Pimmich – Un cadre photo connecté open source basé sur Raspberry Pi

Aujourd’hui, je vous propose de découvrir Pimmich, un cadre photo connecté open source basé sur Raspberry Pi, pensé pour afficher vos souvenirs sans cloud ni abonnement, en restant 100% local. Avec les récents changements côté Google Photos, beaucoup d’entre vous ont dû revoir leurs habitudes… et Aurélien a eu le bon réflexe : s’appuyer sur […]

Cet article Pimmich – Un cadre photo connecté open source basé sur Raspberry Pi a été publié en premier sur Framboise 314, le Raspberry Pi à la sauce française.....

Régulation du numérique en 2025 : quand l’UE lâche du lest

22 décembre 2025 à 09:25

Au nom de la compétitivité, une « révolution en matière de simplification » se prépare.

Les institutions de l’UE l’avaient promis en novembre 2024, à l’issue du Sommet de la communauté politique européenne. Elles s’étaient engagées à « réduire drastiquement les charges administratives, réglementaires et de déclaration, en particulier pour les PME ».

La Commission européenne a repris ces éléments dans son programme de travail pour 2025. Annoncé le 11 février, il comporte des objectifs chiffrés : d’ici à la fin du mandat en 2029, réduire le « fardeau administratif » de 25 % (et de 35 % pour les PME).

Deux semaines plus tard étaient présentés deux trains de mesures, dits omnibus. L’un assouplit les exigences de reporting extra-financier, notamment en réduisant le champ d’application de la directive CSRD (informations en matière de durabilité) et en reportant l’entrée en application de certaines de ses dispositions. L’autre applique la même logique aux règlements InvestEU et EFSI, dans le but de stimuler les investissements stratégiques.

Depuis, 8 autres omnibus ont été proposés. Dont un sur le numérique, en novembre. Il doit encore être approuvé par les 27 et le Parlement.

Décalage d’une échéance importante de l’AI Act

L’omnibus numérique apporte des changements à l’AI Act. Il prévoit notamment de décaler l’entrée en application des règles relatives au système d’intelligence artificielle classés à haut risque. L’échéance, initialement fixée à août 2026, pourra être repoussée de 16 mois maximum, le temps de mettre des outils de soutien à disposition des entreprises.

L’AI Act serait aussi modifier pour étendre aux small caps certaines simplifications accordées aux PME qui développent ou utilisent des systèmes d’IA. Notamment en matière de documentation technique. Par small cap, il faut entendre les organisations comptant moins de 750 salariés et ne dépassant pas 150 M€ de CA annuel ou 129 M€ de total de bilan. Une catégorie créée à l’échelle de l’UE par un autre paquet omnibus.

Toujours au chapitre AI Act, l’accès aux bacs à sable réglementaires (environnements de tests contrôlés) est élargi. Davantage de tests en conditions réelles seront par ailleurs effectués, dans des secteurs comme l’automobile.

Allégements autour d’un « nouveau Data Act »

L’omnibus numérique abroge plusieurs textes dont il fusionne certaines dispositions au sein du Data Act :

  • Data Governance Act (règlement 2022/868)
  • Directive Open Data (2019/1024)
  • Règlement sur la libre circulation des données à caractère non personnel au sein de l’UE (2018/1807, dit FFDR)

Le « nouveau Data Act » apporte, entre autres, des facilités pour les PME qui fournissent des services de traitement de données. Plus précisément, un régime plus « léger » pour les services « personnalisés » (non commercialisés sur étagère et qui ne fonctionneraient pas sans une adaptation préalable aux besoins de l’utilisateur).

Des facilités sont également octroyées aux fournisseurs de services d’intermédiation de données. Ils n’ont pas l’obligation de notifier les autorités compétentes, ni d’opérer une séparation juridique vis-à-vis d’autres services (une séparation fonctionnelle suffit).

L’omnibus supprime aussi, dans le Data Act, les exigences pour les smart contracts qui exécutent des accords de partage de données (contrôle de l’accès, archivage, résilation en toute sécurité…). Il fournit par ailleurs un motif supplémentaire pour refuser de communiquer des données relatives à des produits connectés au nom du secret des affaires. En plus du risque de préjudice économique grave, il devient possible d’invoquer le risque élevé d’acquisition ou d’usage par des pays tiers qui ne garantissent pas un niveau de protection des données équivalent à celui de l’UE.

PME et small caps sont de plus exemptées des règles sur le changement de fournisseur cloud, excepté celles relatives à la fin des frais de sortie.

Le RGPD assoupli jusqu’à la définition des données personnelles

L’omnibus numérique apporte aussi des modifications au RGPD… qui change jusqu’à la définition des données personnelles.

Celles-ci ne le sont plus pour toute entité qui ne peut pas réidentifier la personne concernée à l’aide de moyens raisonnables. Cela reste vrai même si un destinataire ultérieur a les moyens de réaliser cette identification.

Le périmètre des « données de santé » se réduit aussi. Ne sont plus considérées comme telles que celles qui révèlent « directement » des infos sur l’état de santé d’une personne. De même, n’est plus interdit que le traitement de données personnelles révélant « directement » l’origine raciale ou ethnique, les opinions politiques, les convictions religieuses ou philosophiques, etc.

L’omnibus numérique introduit une dérogation supplémentaire à l’interdiction de traiter des catégories particulières de données personnelles. Elle touche au développement et à l’exploitation de systèmes d’IA. Elle complète, entre autres, l’obtention d’un consentement explicite et la nécessité pour la sauvegarde des intérêts vitaux de la personne concernée.

Des contraintes en moins sur l’information des personnes concernées et des autorités

Les règles relatives aux cookies sont modernisées. L’idée est que les utilisateurs puissent définir leurs préférences « en un clic » pour une durée de 6 mois ou via les paramètres de leur navigateur ou OS. En parallèle, certaines fonctions basiques des sites web, comme le comptage du nombre de visiteurs, ne nécessitent plus de consentement.

Autres exigences allégées : celles relatives à l’information des personnes concernées. Elles ne s’appliquent plus dès lors que les collectes sont effectuées dans le cadre d’une relation « claire et délimitée » par un responsable de traitement exerçant une activité « non intensive en données ». Ce sous réserve que la personne connaisse déjà les finalités et la base du traitement.

Quant à l’obligation de notifier l’autorité référente en cas de violation de données, elle devient limitée aux incidents qui engendrent un risque élevé pour les droits et libertés des personnes concernées. Le délai est porté de 72 à 96 heures.

L’abandon de la directive sur la responsabilité en matière d’IA…

Parallèlement à ces dispositifs, la Commission européenne a abandonné ses travaux sur certains textes. Parmi eux, une directive sur la responsabilité en matière d’IA. Motif : pas d’accord prévisible entre les colégislateurs de l’UE.

Il s’agissait de garantir aux victimes de dommages causés par l’IA une protection équivalente à celle des victimes de dommages causés par d’autres produits de manière générale.
En toile de fond, des règles nationales jugées non adaptées au traitement des actions en responsabilité pour de tels dommages. En particulier sur la charge de la preuve. Autre constat : les stratégies IA de plusieurs États membres montraient une volonté d’élaborer des mesures dans le domaine… au risque d’une fragmentation qui augmenterait les coûts pour les entreprises exerçant dans l’ensemble de l’Union.

La directive devait s’appliquer aux actions civiles fondées sur une faute extracontractuelle pour des dommages causés par un système d’IA classé « à haut risque ». Elle avait pour principaux effets d’habiliter les juridictions nationales à ordonner la divulgation d’éléments de preuve et d’établir une présomption de lien de causalité. L’approche d’harmonisation était dite minimale, de sorte qu’on pourrait toujours invoquer les règles plus favorables du droit national.

… et du règlement ePrivacy

Un autre texte a été mis sur la touche : le règlement ePrivacy. Là aussi par manque de perspective d’accord entre législateurs. Mais également parce que son contenu apparaissait « obsolète au vu de la législation récente ».

Le règlement était resté à l’état de projet depuis 2017. L’objectif était initialement de le faire entrer en application parallèment au RGPD (soit le 25 mai 2018). Il aurait remplacé une directive de 2002, révisée pour la dernière fois en 2009, et également dite ePrivacy – ou « vie privée et communications électroniques ». D’un côté, pour encadrer plus strictement l’usage des métadonnées et des cookies. De l’autre, pour élargir son champ aux services de communication « par contournement » (OTT, over-the-top).

Le « nouvel ePrivacy » devait englober davantage de techniques de suivi du comportement en ligne. Et remédier à la « formulation confuse » de certaines dispositions de la directive. L’une touchait au consentement dans le cadre du suivi en ligne. Les modifications proposées avaient entraîné une levée de boucliers d’éditeurs de presse et de représentants du numérique et des télécoms.

Une disposition nouvelle aurait obligé les fournisseurs de logiciels et de matériels associés à des services de communication à proposer, dans les paramètres de configuration, la possibilité de refuser les cookies tiers. Une autre aurait imposé de présenter un code ou un indicatif spécifique montrant le caractère commercial d’appels téléphoniques.

AI Act : une entrée en application (très) progressive

Le RGPD est en application depuis le 25 mai 2018. Le Data Act, depuis le 12 septembre 2025. Concernant l’AI Act, une première salve de dispositions sont applicables depuis février. Une bonne partie ont pour effet d’exclure du champ du règlement certains systèmes et usage. Par exemple :

  • Systèmes d’IA utilisés exclusivement à des fins militaires, de défense ou de sécurité nationale
  • Systèmes ou modèles d’IA spécifiquement développés et mis en service uniquement à des fins de R&D scientifique
  • Systèmes d’IA publiés sous licence ouverte, tant qu’ils ne sont pas mis sur le marché ou mis en service en tant que système à haut risque ou relevant d’usages que l’AI Act interdit

Parmi ces usages interdits, il y a la techniques subliminales ou délibérément trompeuses, la « notation sociale » et l’exploitation de vulnérabilités dues à l’âge, au handicap ou à la situation sociale ou économique. Pour aider à leur interprétation, la Commission européenne a publié des lignes directrices.

Des pressions face aux règles applicables à ChatGPT & Cie

Une deuxième série de mesures de l’AI Act est entrée en application au mois d’août. Parmi elles, les obligations faites aux fournisseurs de modèles d’IA à usage général – ChatGPT, Gemini, Claude, etc.

En amont, l’association EU AI Champions, qui regroupe une soixantaine d’entreprises européennes, avait demandé un moratoire de 2 ans sur l’application des principales obligations. Motif : la complexité du texte et l’absence de lignes directrices opérationnelles. Parmi les signataires, Arthur Mensch (Mistral AI), Éléonore Crespo (Pigment), Alexandre Bompard (Carrefour), Jean-Laurent Bonnafé (BNP Paribas), Bernard Charlès (Dassault Systèmes), Guillaume Faury (Airbus) et Patrick Pouyanné (TotalEnergies).

L’association professionnelle CCIA Europe, représentant de grandes entreprises technologiques internationales, avait également appelé à un report, soulignant le risque de freiner l’innovation et la compétitivité.

La France avait adopté une position intermédiaire. Clara Chappaz, ministre déléguée au numérique, avait souhaité que la mise en œuvre du règlement ne soit pas ralentie, mais qu’un délai de grâce soit accordé pour la mise en conformité.
La présidence polonaise du Conseil de l’UE, comme le Premier ministre suédois, avait porté une demande formelle de report.

Le débat se porte sur la révision du DMA

Entre juillet et septembre 2025, la Commission européenne a organisé une consultation publique. Cela préfigure la première évaluation du DMA (une démarche à boucler au plus tard le 3 mai 2026 et qui pourrait mener à des modifications).

Le règlement s’applique actuellement à une vingtaine de « services de plate-forme essentiels » dont les exploitants sont nommés « contrôleurs d’accès » (gatekeepers). Il est censé garantir la contestabilité et l’équité des marchés dans le secteur numérique de l’UE, à travers des règles touchant notamment à l’exploitation de données, à l’interopérabilité et aux relations contractuelles avec les entreprises utilisatrices des services en question.

Dans le contexte de pression sur la Commission européenne, la Chambre de commerce de République tchèque s’est inscrite dans la lignée du rapport Draghi pour réclamer des allégements du DMA.

L’Open Cloud Coalition (alliance de fournisseurs essentiellement britanniques) a suivi. Elle estime que le DMA n’est pas adapté au cloud, mieux couvert par les règles antitrust standards ; en tout cas pour le IaaS et le PaaS, dont le fonctionnement n’implique pas réellement d’intermédiaires entre des utilisateurs et des fournisseurs de services.

Illustration générée par IA

The post Régulation du numérique en 2025 : quand l’UE lâche du lest appeared first on Silicon.fr.

Lancement de la Journée d'Indépendance Numérique (DI-DAY) suite au 39c3

31 décembre 2025 à 16:30

Beaucoup de nos services numériques du quotidien sont propulsés en partie voire entièrement par les GAFAM. Les risques de cette dépendance s'illustrent de plus en plus fréquemment dans l'actualité : représailles envers l'ex-Commissaire européen Thierry Breton et des ONG luttant contre la désinformation en ligne, clôture de la boite de courriel du procureur de la Cour Pénale Internationale, …

Ces vulnérabilités mettent en danger le fonctionnement des démocraties européennes.

On peut être tenté d'attendre une nouvelle législation européenne, cependant le carburant de ces plateformes est en premier lieu nos données personnelles : quitter ces plateformes réduit à la fois notre exposition personnelle et notre contribution collective à ce système néfaste.

C'est le sens de l'appel lancé à Hambourg lors du 39ème CCC : le 4 janvier (puis chaque 1er dimanche du mois), faites migrer vos connaissances d'une des plateformes et faites le savoir en utilisant les mots clés #DiDay ou #iDidIt sur le Fediverse.

Cet appel est soutenu notamment par Wikimedia, Nextcloud et Mastodon, et l'information a été relayée par la 1ère chaîne de TV allemande. Espérons que des acteurs de l'espace francophone s'y joignent rapidement !

Linux est bien sûr une des alternatives, dont la progression est en bonne voie « grâce » à Microsoft (mouvement qui s'inscrit parfaitement dans les initiatives existantes Adieu Windows ou End Of 10). Mais l'initiative concernent tous les services dépendants de ces plateformes toxiques : messageries instantanées, stockage en ligne, librairies en lignes, … dont la gratuité ou les prix au rabais reposent sur l'exploitation de nos données personnelles.

Le succès dépend donc de vous qui lisez cet article, et des relais « physiques » qui pourront accompagner ces migrations : cafés réparation, GULLs, librairies physiques, bibliothèques, … mois après mois !

Commentaires : voir le flux Atom ouvrir dans le navigateur

❌