Vue lecture

IA - La Corée du Sud choisit les muscles plutôt que la peur

Pendant qu’on s’écharpe en Europe sur comment réglementer l'IA, la Corée du Sud vient de siffler la fin de la récré chez elle. Nos amis Coréen viennent en effet de pondre leur première loi qui encadre l’intelligence artificielle (l’AI Act coréen, pour les intimes) et ce qu'on peut dire, c’est que leur approche est très très différente de la nôtre, vous allez voir.

En fait, chez nous, avec l’AI Act européen, on régule principalement par le "risque d’usage". Cela veut dire que si vous faites un outil pour du recrutement, de la santé ou du maintien de l’ordre, hop, vous tombez dans la catégorie "haut risque", et cela peu importe que votre IA tourne sur un Raspberry Pi ou un supercalculateur.

Alors oui l’UE a aussi ses seuils de calcul (les fameux 10^25 FLOPs ) pour identifier les modèles à "risque systémique", mais la base reste quand même l’usage. Les Coréens, eux, ont décidé de se simplifier la tâche en plaçant le curseur presque exclusivement sur ce qu’il y a sous le capot.

Leur critère magique c'est la puissance de calcul cumulée lors de l’entraînement. Et c'est cela qui leur permet de définir ce qu’ils appellent la "high-performance AI" (ou Frontier AI). Pour les devs, c’est un changement complet car si vous codez un petit outil IA bien foutu mais léger, vous aurez une paix royale. Vous esquiverez une paperasse infinie ou de la mise en conformité bloquante si votre projet ne dépasse pas les seuils techniques fixés par le MSIT (le ministère coréen de la science et des TIC).

Et c’est d’ailleurs ce qui rend leur approche très orientée innovation. Le gouvernement coréen a d'ailleurs été très clair : le but n’est pas de bloquer le développement mais de poser un cadre de confiance. Ils ont même prévu une période de grâce d’au moins un an sans aucune sanction administrative le temps que tout le monde s’adapte. Et même après ça, on est loin du climat carcéral car il n'y a pas de sanctions pénales prévues dans cette loi, mais juste des ordres de correction et des amendes plafonnées à 30 millions de won (environ 21 000 euros) si vous ignorez les injonctions.

J’avoue, j’ai dû relire trois fois le texte pour piger la subtilité, mais le diable se cache dans les FLOPS. Parce qu'au moment où j'écris cet article, il n'y a actuellement aucune entreprise en Corée qui dépasse les seuils de puissance de calcul qui rentrent dans le cadre de leur loi. Même Naver, leur géant de la Tech local est loin de ça . C’est dire si la marge est grande.

Après côté transparence, c’est plus classique mais efficace car tout contenu généré par IA qui pourrait être confondu avec la réalité (les deepfakes, pour faire court) doit être clairement indiqué. C’est le minimum syndical aujourd’hui, vous allez me dire, mais là encore, ils ont eu le nez creux en excluant les usages personnels ou non commerciaux du cadre réglementaire, histoire de ne pas fliquer le moindre mème rigolo.

Voilà... alors on va voir qui de la méthode "compteur de tours" ou "check-list de risques" gagne la course, mais bon j'ai ma petite idée. En Europe, on a tendance à vouloir tout border par secteur, alors qu’en Corée, visiblement, ils préfèrent économiser du temps et de l'énergie en surveillant uniquement les gros muscles et en laissant les petits grandir sans les emmerder.

Et même si je ne connais pas du tout l'écosystème tech coréen, force est de constater que leur vision a l'air sacrément plus pragmatique pour l’écosystème tech que la notre.

Source

  •  

X serre la vis de sa plateforme de nudification, mais pas trop fort quand même

Et encore un sujet qui me fout une colère noire et qui montre bien que chez certains, l'éthique c'est visiblement tombé dans les chiottes. Vous l'aurez deviné, je parle bien de Grok, l'IA d'Elon Musk, qui se retrouve une fois de plus sur le devant la scène.

Grâce à la magie de l'IA, ce chatbot permettait jusqu'à présent de générer des images de vraie personnes en tenues légères (bikinis, sous-vêtements...) voire complétement à poil à partir de simples photos. C'est ce qu'on appelle la "nudification" et c'est, disons-le clairement, une saloperie sans nom qui a été utilisée pour harceler des femmes, des jeunes filles et accessoirement faire zizir à tous les pédo nazis qui trainent sur X.

Toutefois, suite à une forte pression réglementaire au Royaume-Uni, en Californie, et même au blocage complet de la plateforme X en Indonésie et en Malaisie, X Safety (lol) vient enfin de serrer la vis. Mais bon, comme d'habitude avec Musk, il a fallu attendre d'être au pied du mur, parce que son éthique et son empathie sont surement restées dans la boite à gants du Roadster Tesla de Starman.

Désormais, la plateforme va donc "geobloquer" la génération d'images de personnes réelles en bikini ou sous-vêtements (le fameux "spicy mode") là où c'est restreint par la loi. "LÀ OÙ C'EST RESTREINT PAR LA LOI"... oui oui... Pourquoi se faire chier hein... si mettre des gens à poil sans leur autorisation est autorisé par ton pays, c'est 👍

X affirme également avoir implémenté des mesures technologiques pour empêcher l'usage de Grok afin d'éditer des photos pour dévêtir des gens mais apparemment, ça marche pas de fou de ce que j'ai pu lire aujourd'hui. En tout cas, je trouve ça dingue qu'il faille des enquêtes et des suspensions d'accès à tout un réseau social pour que le bon sens l'emporte...

En attendant, X a réservé l'accès à Grok aux abonnés payants sur la plateforme, officieusement pour améliorer la traçabilité des abus, même si dans les faits, payer ne garantit en rien d'assurer le lien avec l'identité de l'utilisateur. Et surtout, ces nouvelles restrictions anti-nudification s'appliquent désormais à tout le monde, y compris à ceux qui passent à la caisse.

Après quand on voit que la réponse automatisée de xAI aux journalistes était y'a pas si longtemps un magnifique " Legacy Media Lies " d'enfant de 5 ans, on mesure le niveau de maturité de toute l'entreprise X...

Source

  •  

La France remet ça et ordonne aux VPNs de bloquer encore plus de sites pirates

Bon, je vous en parlais déjà en mai dernier , la justice française avait décidé de s'attaquer aux VPN pour lutter contre le piratage des matchs de foot. Et bien devinez quoi ? Ils ont remis le couvert, et cette fois c'est encore plus costaud !

Le 18 décembre dernier, le Tribunal judiciaire de Paris a rendu une nouvelle ordonnance à la demande de la Ligue de Football Professionnel et de sa branche commerciale. Du coup, les gros du secteur des tunnels chiffrés vont devoir obtempérer : CyberGhost, ExpressVPN, NordVPN, ProtonVPN et Surfshark sont tous dans le viseur. Hop, 5 services de confidentialité d'un coup qui se retrouvent obligés de jouer les censeurs !

Concrètement, ces fournisseurs doivent bloquer l'accès à 13 domaines pirates, parmi lesquels miztv.top, strikeout.im, qatarstreams.me ou encore prosmarterstv.com. Bref, les sites de streaming foot gratuit vont avoir la vie dure. Et le plus flippant dans l'histoire c'est que ce dispositif est "dynamique", ce qui signifie que l'ARCOM peut rajouter de nouvelles adresses à la liste quand bon lui semble, sans repasser devant un juge. Les blocages resteront donc actifs pour toute la saison 2025-2026.

L'argument massue du tribunal c'est que, je cite : "la neutralité technique n'équivaut pas à l'immunité juridique". En gros, ce n'est pas parce que un service de VPN promet de ne rien logger et de protéger la vie privée de ses utilisateurs que ces entreprises peuvent ignorer les injonctions des ayants droit. Les juges ont donc balayé d'un revers de main l'argument des obligations contractuelles envers les clients. Adios la promesse d'anonymat quand la LFP débarque avec ses avocats !

D'ailleurs, parlons un peu de mon partenaire NordVPN puisqu'ils font partie de la liste des concernés. Car même si cette décision cible le streaming de foot pirate, ça pose quand même des questions sur l'avenir de ces services...

En effet, ce qu'il y a de bien avec un service comme NordVPN, c'est qu'il permet de protéger sa vie privée, de sécuriser ses connexions Wi-Fi publiques et d'accéder à des contenus bloqués géographiquement de façon légitime. En plus de ça, avec leur politique no-log auditée et leurs serveurs présents dans plus de 110 pays, c'est quand même la référence pour ceux qui veulent surfer tranquilles. Et avec les promos actuelles, ça revient à quelques euros par mois pour protéger jusqu'à 10 appareils. Jetez un œil à leurs offres (lien affilié) si vous cherchez à sécuriser votre connexion, et pas juste pour mater du foot pirate, hein !

Bref, comme je le disais dans mon article précédent, toute cette histoire, c'est un peu comme essayer d'arrêter l'eau qui coule avec une passoire. Les pirates les plus motivés changeront simplement de service ou trouveront d'autres moyens de contournement. Et pendant ce temps, les utilisateurs lambda qui se servent d'un VPN pour des raisons parfaitement légitimes, genre protéger leurs données dans les McDo au Wi-Fi douteux, se retrouvent avec des services potentiellement bridés.

Voilà, reste à voir comment tout ça sera appliqué dans la vraie vie. Les questions techniques sont nombreuses et les fournisseurs basés hors de France pourraient très bien répondre "mdr" aux injonctions parisiennes. En attendant, surveillez de près les évolutions de votre service préféré dans les prochains mois...

Source

  •  

L'IA détruit-elle nos institutions démocratiques ?

L'IA va-t-elle vraiment détruire nos institutions ?

Deux chercheurs de Boston University, Woodrow Hartzog et Jessica Silbey, viennent de publier un papier académique qui affirme que oui, et leur thèse tient en trois mécanismes :

  1. l'intelligence artificielle dégrade l'expertise humaine
  2. elle court-circuite les processus de décision
  3. et elle isole les individus.

Autant dire que ça envoie du lourd !

Mais est-ce vraiment le cas ? Je vous propose de regarder un peu ce qui se passe chez nous, en France et en Europe, depuis quelques mois, sans vous prendre la tête avec la théorie.

Premier exemple, l'algorithme de la CAF.

Depuis 2010, la Caisse nationale d'allocations familiales utilise un système de scoring qui attribue une note de risque entre zéro et un à tous les allocataires pour détecter les fraudes potentielles. On parle quand même de 32 millions de personnes concernées !

C'est pourquoi en octobre 2024, quinze associations dont Amnesty International France, la Quadrature du Net et la Fondation Abbé-Pierre ont attaqué cet algorithme devant le Conseil d'État . Le problème en fait, ce sont les critères qui font monter le score comme avoir de faibles revenus, être au chômage, vivre dans un quartier défavorisé, être parent isolé, ou travailler avec un handicap.

Du coup, l'expertise des agents qui connaissent le terrain se retrouve court-circuitée par un score opaque qui cible systématiquement les plus vulnérables. C'est vraiment dégelasse et Agnès Callamard, secrétaire générale d'Amnesty, n'a pas manqué de rappeler le précédent néerlandais de 2021 où un algorithme similaire avait plongé des milliers de familles dans la dette.

Et ce n'est pas un cas isolé... France Travail applique la même recette avec ce que La Quadrature du Net appelle des "scores de suspicion" et "scores d'employabilité" qui déterminent qui va être contrôlé en priorité. En 2024, l'organisme a effectué 610 780 contrôles, soit une hausse de 16,7% par rapport à l'année précédente et leur objectif pour 2027 c'est de faire 1,5 million de contrôles !!!

La Quadrature du Net dénonce donc un profilage algorithmique qui remplace progressivement l'accompagnement humain par une logique de surveillance automatisée déshumanisée.

Et c'est la même chose avec Parcoursup. En effet, la plateforme d'affectation post-bac traite chaque année des centaines de milliers de dossiers, et les études montrent une discrimination territoriale flagrante. A dossier équivalent, un lycéen parisien a plus de chances d'être accepté qu'un lycéen de banlieue. L'UNEF qualifie le système de "fabrique à élite" , et selon un sondage L'Etudiant/BVA/Orange , seulement 37% des jeunes de 15 à 20 ans estiment que le traitement est équitable.

Les conseillers d'orientation qui connaissaient les élèves individuellement sont peu à peu remplacés par un algorithme dont personne ne comprend vraiment les critères...

Côté court-circuitage des décisions, le ministère de la Culture nous a également offert un moment collector. Quand Rachida Dati a voulu rendre hommage au rappeur Calbo, cofondateur d'Ärsenik décédé à 53 ans, le communiqué de presse contenait une sacrée bourde : "Shalom" au lieu de "Shaolin".

C'est une erreur qui évoque le comportement typique des systèmes génératifs et l'enquête de Next a montré après coup que le texte provenait en fait d'un site dont le nom de domaine avait été racheté après la faillite de son proprio pour y héberger du contenu généré par IA. C'est moche... Le ministère a démenti avoir utilisé l'IA tout en admettant "des coquilles". lol... Comme d'hab, personne n'a vérifié avant la publication, et voilà !

Et les deepfakes ? On en parle ? Car là, c'est Macron lui-même qui brouille les pistes à défaut de brouiller l'écoute ^^. En février 2025, pour promouvoir le Sommet de l'IA, le président a posté sur Instagram une compilation de deepfakes le montrant avec une coupe mullet dansant sur "Voyage, Voyage", donnant un tuto coiffure, ou imitant Jean Dujardin dans OSS 117.

Ça l'a fait marrer (je ne savais pas qu'il pouvait rire, décidément, on en apprend tous les jours) mais les experts en IA ont tiré la sonnette d'alarme car quand le président normalise lui-même les deepfakes, comment ensuite lutter contre la désinformation qui ronge l'espace médiatique ? Un an plus tôt, une fausse vidéo France 24 générée par des propagandistes russes annonçait un complot d'assassinat contre Macron, et l'ex-président Medvedev l'avait relayée comme authentique... Breeeeef....

Ah et il y a aussi le cas Coluche ! Souvenez-vous, en septembre dernier, une vidéo deepfake de l'humoriste appelant à rejoindre le mouvement "Bloquons Tout" a dépassé les 200 000 vues sur TikTok. Des propos qu'il n'a bien sûr jamais tenu de son vivant. France 3 avait fait plus subtil avec "Hôtel du Temps" où Thierry Ardisson "ressuscitait" Coluche, mais en utilisant uniquement ses propos authentiques. La nuance est importante, et ça montre bien que tout dépend de l'intention.

L'Europe a bien sûr tenté de répondre avec l'AI Act , le premier règlement de l'UE sur l'intelligence artificielle avec classification des risques, obligations de transparence, interdiction de certains usages et j'en passe... Sur le papier, c'est ambitieux mais dans les faits, la course est déjà perdue d'avance face à une techno qui évolue plus vite que la régulation.

Du coup, nos deux chercheurs Hartzog et Silbey ont-ils raison ?

Je dirais qu'en partie, oui.

Mais l'IA ne détruit pas les institutions démocratiques par malveillance, mais plutôt par friction car elle s'insère dans des processus existants, remplace des étapes humaines, crée des angles morts et ça c'est le problème. Vous le savez, j'aime beaucoup tout ce qu'on peut faire avec l'IA et j'ai une tendance plutôt pro-IA que anti-IA et une fois encore, de mon point de vue, ici le vrai problème n'est pas l'outil, mais plutôt l'absence de garde-fous et la tentation de faire confiance aveuglément à tout ce qui sort de la machine.

Voilà, donc dire que l'IA "détruit" les institutions, c'est peut-être un poil exagéré mais c'est clair qu'elle les fragilise, qu'elle les contourne et surtout qu'elle les rend paresseuses.

Quand à la destruction, elle viendra surement si on continue de regarder ailleurs...

  •  

Matthew McConaughey™ brevette son visage

Quel grand philosophe du XXIe siècle considère que l'identité personnelle est le dernier rempart contre les algos ?

Hé oui, il s'agit bien de Luciano Floridi , qui défend depuis le milieu des années 2000 le concept de vie privée informationnelle. Pour lui, la vie privée n'est pas une question de secret, mais un droit fondamental à l'immunité personnelle contre les altérations non désirées de l'identité, qu'elles soient actives (vol, clonage, manipulation de données) ou passives (imposition d'informations que l'on n'a jamais choisies).

Autrement dit, notre identité n'est pas un stock de données exploitables, mais une entité informationnelle qui mérite une protection en tant que telle.

Et cette idée vient de trouver une incarnation très concrète à Hollywood.

Matthew McConaughey vient en effet de déposer plusieurs marques couvrant son image, sa voix et même son légendaire "Alright, alright, alright". L'objectif affiché c'est de créer un périmètre juridique pour empêcher l'utilisation de son identité par des systèmes d'IA sans son consentement.

Sur le papier, ça ressemble à un coup de maître mais dans les faits, c'est surtout le symptôme d'une industrie qui panique.

Car une marque ne protège pas une personne, elle protège un signe distinctif dans un cadre commercial. Autrement dit, elle fonctionne très bien pour attaquer des usages visibles, monétisés, centralisés, genre typiquement, des pubs, des vidéos sponsorisées ou des produits qui exploiteraient l'image ou la voix de McConaughey sans autorisation.

En revanche, les outils de face-swapping ou de synthèse vocale se foutent royalement des dépôts de marque. Un type qui fait tourner FaceFusion , Roop ou un modèle open source sur un serveur anonyme ne va pas vérifier si un sourire, une intonation ou une phrase d'accroche sont enregistrés à l'USPTO (C'est l'INPI des USA).

Alors oui, c'est vrai, cette stratégie peut permettre de nettoyer les grandes plateformes comme YouTube, Instagram ou TikTok à coups de demandes de retrait... Mais pour le reste du web, les barrières juridiques sont contournables en deux clics par des modèles décentralisés qui n'ont ni frontières ni service juridique.

Heureusement, pendant ce temps, le cadre légal évolue quand même un peu.

En Europe, l' AI Act impose des obligations de transparence pour les contenus générés ou manipulés par IA, notamment les deepfakes, en exigeant que leur nature artificielle soit clairement signalée dans de nombreux cas. Ce n'est donc pas une interdiction générale, puisqu'on passe du "on peut le faire" au "on doit le dire", mais c'est déjà pas mal.

Et en France, la loi SREN est également venue renforcer l'arsenal pénal, notamment contre les deepfakes non consensuels, en particulier lorsqu'ils portent atteinte à la dignité ou ont une dimension sexuelle.

Maintenant aux États-Unis, il y a le projet de loi NO FAKES Act proposé au Congrès qui vise à donner aux individus un droit fédéral clair pour contrôler l'utilisation de répliques numériques non autorisées de leur voix ou de leur image. Contrairement aux dépôts de marque, ce texte cherche donc à créer une base juridique uniforme pour réclamer la suppression ou l'interdiction d'un deepfake non consenti, avec heureusement, des exceptions pour les œuvres protégées comme les documentaires, les commentaires ou la satire.

Cependant, comme je le souligne dans mon article à ce sujet, le texte tel qu’il est rédigé pose des problèmes sérieux pour l’écosystème open source et pourrait imposer des mécanismes de "notice and stay down" (retrait permanent) sans protections claires contre les erreurs ou les abus, ce qui pourrait refroidir fortement l’innovation dans les outils d’IA générative.

Le problème reste donc identique... même avec des lois comme celle-ci ou la loi TAKE IT DOWN Act qui criminalise certaines formes de deepfakes non désirés, les cadres juridiques peinent à suivre la vitesse d’évolution des modèles et des usages. Et voilà comment on se retrouve avec un McConaughey qui tente de sécuriser son périmètre avec les outils qu'il a sous la main.

C'est plutôt rationnel comme approche, mais c'est surtout un aveu d'impuissance, car protéger une voix ou un visage aujourd'hui avec le droit des marques ou du rafistolage de petits bouts de lois, c'est comme essayer de vider l'océan avec une petite cuillère en argent gravée à son nom.

Du coup, quelle serait la vraie solution ?

Hé bien peut-être arrêter de croire que le droit d'auteur et les bricolages juridiques du XXe siècle peuvent faire le job au XXIe. Comme le défend Floridi, il faudrait un cadre global qui traite l'identité personnelle comme une donnée inaliénable, protégée par un véritable droit à la vie privée informationnelle, et non comme une marque de sac à main de luxe qu'on dépose à l'INPI ou à l'USPTO.

Bref, Matthew essaie de poser une clôture, mais l'IA a déjà sauté par-dessus.

A ce train là, je ne donne pas cher du futur de notre propre visage et de notre propre voix.

Source

  •  

Cloudflare vs Italie - Le bras de fer sur le Piracy Shield ne fait que commencer

Alors que l'Italie pensait avoir trouvé l'arme ultime contre le piratage avec son fameux "Piracy Shield", voici que voilà que Cloudflare vient de leur renvoyer une gifle mémorable. C'était prévisible et j'ai envie de dire tant mieux car je pense que la neutralité du net mérite mieux et je ne suis pas fan de l'idée de transformer des hébergeurs et autres prestataires techniques en garant de la moral a.k.a. en censeurs automatisés.

Matthew Prince, le patron de Cloudflare, n'a pas l'intention de se laisser faire ( Source )

Si vous vous demandez de quoi je parle, je vous propose de reprendre tout ça depuis le début. En effet, l'autorité italienne de régulation des communications (AGCOM) vient de coller une amende de 14,2 millions d'euros à Cloudflare. Pourquoi ? Hé bien tout simplement parce que l'entreprise refuse de se plier à un ordre de blocage DNS datant de février 2025 sur son service 1.1.1.1 pour filtrer les sites de streaming illégaux de la Serie A (Si vous ne connaissez pas la Serie A, c'est un championnat de foot à la con). Cette prune est quand même égale à 1% de son chiffre d'affaires annuel, bref Cloudflare est carrément dans la sauce.

Toujours pour ceux qui débarquent, le Piracy Shield est un système censé permettre aux ayants droit de soumettre des adresses IP et des noms de domaine à bloquer dans un délai de 30 minutes après notification. Sauf que dans la vraie vie, ça ne marche pas tout à fait comme ça. Matthew Prince, le patron de Cloudflare, n'a d'ailleurs pas mâché ses mots en affirmant que l'Italie tente d'imposer une véritable "censure globale" sans surveillance judiciaire ni transparence. Pour lui, c'est comme essayer d'arrêter l'eau avec une passoire tout en inondant les voisins.

Techniquement, Cloudflare explique qu'obliger d'opérer un blocage DNS/IP sur ses 200 milliards de requêtes quotidiennes, cela augmenterait significativement la latence pour les utilisateurs de ses résolveurs. Et surtout, le risque de surblocage est gigantesque. Rappelez-vous, en octobre 2024, ce magnifique système avait réussi l'exploit de bloquer Google Drive pour toute l'Italie pendant trois heures (et certains blocages partiels ont même persisté bien après). Gloups ! C'est ce genre de dérives qui inquiète, surtout quand on sait que le système a déjà fait désactiver plus de 65 000 domaines en deux ans, selon l'AGCOM.

Et je vous parle pas de coût humains et techniques que ça engendre pour les opérateurs comme Cloudflare.

La réponse de Matthew Prince est d'ailleurs assez radicale puisque Cloudflare envisage carrément de retirer tous ses serveurs des villes italiennes, de couper ses services de cybersécurité gratuits pour les utilisateurs locaux et même d'annuler son soutien pro bono pour les prochains Jeux olympiques de Milan-Cortina. Bye Bye l'investissement, basta la collaboration !

On se retrouve donc dans une situation où Cloudflare se voit contraint de choisir entre ses principes et le marché italien. Si vous suivez un peu l'actu, vous savez que les services DNS sont de plus en plus ciblés par des obligations de blocage, mais l'Italie semble vouloir aller plus loin que les autres.

Si la France a déjà ordonné à cinq gros fournisseurs de VPN de bloquer certains sites de streaming sportif, l'offensive italienne contre les infrastructures de base du web est un cran au-dessus. Heureusement, il existe encore des résistances techniques et ces protocoles ennemis de la censure comme le DoH ou l'ECH (Encrypted Client Hello) rendent la tâche plus complexe pour les autorités, même si cela n'empêchera jamais un blocage pur et dur par IP.

Bref, reste à savoir maintenant comment ceci sera réellement appliqué dans les mois qui viennent... En attendant, si vous utilisez Cloudflare en Italie (ou ailleurs), surveillez de près les évolutions de votre service car le bras de fer ne fait que commencer.

Source

  •  

En finir avec l'enshittification en légalisant le reverse-engineering

Bon, je vais être direct : le reverse-engineering devrait être légal, point barre. Et tant mieux si quelqu'un d'aussi influent que Cory Doctorow le gueule dans le Guardian !

Pour ceux qui débarquent, le reverse-engineering c'est le fait de désosser un logiciel ou un appareil pour comprendre comment il fonctionne. Pas pour le pirater, hein, mais pour réparer, améliorer ou simplement vérifier qu'on ne se fait pas arnaquer. Et c'est là que ça devient un peu compliqué, parce que dans plein de pays, c'est illégal.

Doctorow rattache ça au phénomène d'"enshittification" (oui, le terme est volontairement moche... On pourrait traduire ça par "l'emmerdification"). C'est ce phénomène bien pénible où les entreprises dégradent progressivement leurs produits pour vous forcer à payer plus ou à racheter du neuf. Votre imprimante qui refuse les cartouches compatibles ? Enshittification. Votre tracteur John Deere qui vous interdit de le réparer vous-même ? Enshittification. Les onduleurs solaires chinois avec des kill switches à distance ? Enshittification + un peu de parano ^^.

Le truc, c'est que les lois anti-contournement comme le DMCA américain protègent ces pratiques. Du coup, même si vous avez acheté un machin, vous n'avez pas vraiment le droit de regarder sous le capot.

Mais bonne nouvelle pour nous autres Européens, l'article 6 de la directive européenne sur les logiciels autorise la décompilation pour assurer l'interopérabilité. Si ça c'est pas une nouvelle preuve que l'Europe est supérieure aux Etats-Unis, j'sais pas ce que c'est ^^.

En France par exemple, l'article L. 122-6-1 du Code de la propriété intellectuelle va même plus loin puisqu'il est impossible pour un éditeur d'interdire contractuellement ce droit. Autrement dit, même si c'est écrit dans les CGU, c'est nul et non avenu.

Par contre, le Royaume-Uni post-Brexit, c'est une autre histoire mais Doctorow y voit plutôt une opportunité. En effet, comme le Royaume-Uni est libéré des contraintes de l'harmonisation européenne, le pays pourrait assouplir ses lois plus rapidement que l'UE et devenir un hub du reverse-engineering légal. À condition évidemment de ne pas céder aux lobbys tech américains qui poussent dans l'autre sens.

Alors certains d'entre vous pourraient se demander : Ça sert à quoi de pouvoir reverse-engineerer ses appareils ?

Hé bien, ça sert par exemple à découvrir que votre thermostat "intelligent" envoie vos données à des serveurs douteux. Ou à réparer votre tracteur sans attendre 3 semaines un technicien agréé qui vous fera payer une fortune un truc dérisoire. Ou encore à vérifier que l'onduleur solaire sur votre toit n'a pas une backdoor exploitable par n'importe qui. De plus, des outils comme ReverserAI rendent ce genre d'analyse de plus en plus accessible, même sans être un expert en assembleur. Et ça c'est cool !

Le combat de Doctorow, c'est donc de faire sauter ces verrous juridiques qui protègent l'obsolescence programmée au détriment des consommateurs. Et franchement, quand on voit l'état du marché tech actuel, c'est pas du luxe, je trouve.

Bref, si vous voulez comprendre pourquoi votre grille-pain connecté vous espionne, au moins en Europe, vous avez théoriquement le droit de le découvrir. C'est déjà ça. Force à nos amis anglais et américains qui sont encore plus maltraités par les sociétés qui verrouillent leurs appareils, que nous.

  •  

Le NO FAKES Act veut réguler les deepfakes, mais c'est surtout l'open source qui va trinquer

Après le DMCA, après la DADVSI , après SOPA, après PIPA, après EARN IT... voici le NO FAKES Act ! Bref, un nouveau projet de loi américain pondu par des gens qui visiblement n'ont jamais lancé un git clone de leur vie.

Le texte ( S.1367, 119e Congrès , introduit en avril 2025) part d'une intention louable qui est de protéger les gens contre les deepfakes non consentis. Vous savez, ces vidéos truquées où votre tête se retrouve sur un corps qui n'est pas le vôtre, de préférence à poil...

Mais comme toujours, l'enfer est pavé de bonnes intentions et la méthode choisie va potentiellement atomiser tout l'écosystème de l'IA open source.

En fait, une large partie des services qui hébergent du contenu généré par les utilisateurs devront mettre en place une logique de notice-and-staydown basée sur du "digital fingerprinting" afin de pouvoir retirer le contenu signalé et empêcher que les mêmes œuvres réapparaissent après notification. De quoi faire pleurer donc n'importe quel admin sys qui a déjà dû gérer un serveur de modération.

Et là où ça se corse c'est que contrairement au DMCA et ses exceptions , ce texte ne prévoit pas de véritable mécanisme de contre-notification façon DMCA. Quelqu'un signale votre contenu comme étant un deepfake ? Hop, c'est retiré. Vous pensez que c'est une erreur ? La seule voie prévue pour espérer une remise en ligne passe par une action en justice (sous 14 jours) contre l'expéditeur de la notification. Alors direction le tribunal fédéral, les amis...

Et les coûts de conformité estimés par la CCIA donnent le vertige car en moyenne, ça devrait tourner à environ 1,64 million de dollars la première année pour une simple startup. Et je ne parle même pas des projets open source qui distribuent des modèles d'IA générative... Comment Stable Diffusion ou Whisper pourraient-ils implémenter du fingerprinting sur des modèles que n'importe qui peut télécharger et faire tourner localement ? Mystère et boule de gomme !

Le truc bien moche, c'est que le texte prévoit des dommages et intérêts pouvant grimper jusqu'à 750 000 dollars par œuvre pour les plateformes non conformes. Autrement dit, si une plateforme ne réagit pas correctement après notification, elle peut devenir bien plus exposée à ce que font ses utilisateurs avec des outils d'IA... Voilà donc de quoi sérieusement refroidir les ardeurs de quiconque voudrait partager un petit modèle open weights.

Dans un autre style, ça me rappelle l'affaire youtube-dl où le DMCA avait été utilisé pour faire retirer un outil open source de GitHub sauf que là, on passe à l'échelle supérieure.

Voilà donc encore un lance-flammes législatif imaginé pour tuer une mouche et malheureusement, l'open source risque d'être le dommage collatéral de ce texte mal calibré.

Voilà les amis... l'avenir de l'IA ouverte pourrait bien se jouer dans les mois qui viennent aux US, et ça, ça va faire mal.

Source

  •  

Multi Theft Auto ressuscite sur GitHub après l'échec juridique de Take-Two

Et voici que voilà que voici le grand retour de Multi Theft Auto sur GitHub !!!

Vous vous souvenez peut-être de ce mod légendaire qui a permis à des millions de joueurs de transformer GTA San Andreas en véritable MMO de quartier depuis février 2003. C'est quand même, un projet open source qui a survécu à plus de 20 ans de cohabitation plus ou moins paisible avec Rockstar et sa maison mère Take-Two Interactive.

Le multijoueur de MTA San Andreas en action

Sauf que voilà, en décembre 2025, Take-Two a décidé de sortir l'artillerie lourde en balançant un DMCA sur le dépôt GitHub, prétextant que le code source de MTA contenait du "code source divulgué" de leurs précieux jeux. Une accusation assez débile quand on sait que le projet fonctionne par injection de code dans le jeu original, n'en déplaise aux juristes de Take-Two qui semblent avoir du mal avec les nuances techniques.

Du coup, l'équipe de MTA n'a pas tremblé et a déposé une contre-notification le 22 décembre dernier. Cela à permis à GitHub de laisser 10 à 14 jours ouvrés à l'accusateur pour engager une action en justice et passé ce délai, le repo devait revenir en ligne automatiquement.

Sans surprise, Take-Two n'a jamais donné suite. Le dépôt est donc de retour avec ses centaines de contributeurs qui peuvent enfin respirer, et bien sûr c'est toujours sous licence GPL-3.0, histoire de rappeler que le code appartient à la communauté.

C'est quand même moche ces géants qui tentent d'écraser les projets de préservation alors que ces derniers ne font que maintenir vivante une partie de notre patrimoine gaming, lâchement abandonné par leurs éditeurs.

Allez, une victoire de plus pour les moddeurs, ça fait du bien !

Source

  •  

TermsTooLong - L'outil qui note les CGU que vous ne lisez jamais

Pour une fois dans votre vie, soyez honnêtes !! Je le sais, vous le savez, PERSONNE ne lit les conditions d'utilisation. On clique sur "J'accepte" comme des automates, et on file nos données personnelles sans même savoir ce qu'on signe. Perso, la dernière fois que j'ai lu des CGU en entier, c'était... celles de hotmail.com en 1996.

Et c'est exactement pour ça que TermsTooLong existe. Ce site analyse et note les politiques de confidentialité et les termes de service de plus de 200 plateformes, de Mozilla à TikTok en passant par Discord et Blizzard. Du coup, au lieu de vous farcir 47 pages de jargon juridique, vous avez une note claire de A- à F.

Et les résultats sont assez révélateurs. Dans le camp des bons élèves, on retrouve Mozilla avec 8.8/10 (note A-), Signal au même niveau, et DuckDuckGo avec 8.5/10. Ces services collectent un minimum de données et sont plutôt transparents sur leur utilisation.

Et puis y'a les cancres. Ubisoft se tape un magnifique 1.8/10 (note F), Blizzard n'est pas loin avec 2.0/10, et TikTok récolte un joli 2.8/10. Si vous vous demandiez pourquoi ces services sont gratuits, vous avez maintenant une partie de la réponse.

Le truc cool, c'est la méthodologie car le site utilise une analyse assistée par IA pour décortiquer chaque document. Il cherche les clauses problématiques telles que la collecte excessive de données, le partage avec des tiers, l'absence de suppression sur demande, ce genre de joyeusetés. Le tout est ensuite vérifié et noté sur des critères précis par des humains.

Y'a même une fonction de comparaison côte à côte. Vous hésitez entre deux services de cloud ? Hop, vous comparez leurs politiques de confidentialité en un clic. Pratique pour faire des choix éclairés sans perdre trois heures à décrypter du juridique.

Voilà, si le sujet de la protection des données personnelles vous intéresse, ce site est une vraie mine d'or. Au moins maintenant, vous saurez exactement ce que vous acceptez quand vous cliquez sur ce fichu bouton.

Source

  •  

Anna's Archive perd son domaine en .org mais reste debout

Bon, fallait s'y attendre. Le domaine annas-archive.org vient de tomber, placé en statut "serverHold" par le Public Interest Registry (PIR), l'organisme qui gère tous les domaines en .org. Du coup, si vous tapez l'adresse habituelle, vous tombez dans le vide.

Et là vous allez me dire : "Mais PIR, c'est pas les mêmes qui ont toujours refusé de suspendre thepiratebay.org ?" Hé bien si, exactement. Ce qui laisse penser qu'il y a probablement une décision de justice derrière tout ça, parce que PIR ne fait pas ce genre de chose de gaieté de coeur.

L'équipe d'Anna's Archive a réagi sur Reddit en mode "on est chill, on a l'habitude". Ils rappellent que ce genre de mésaventures arrive régulièrement aux bibliothèques "alternatives" et pointent vers leurs domaines alternatifs qui fonctionnent toujours : annas-archive.li, annas-archive.se, annas-archive.in et annas-archive.pm. Bref, business as usual.

Ce qui est marrant, c'est que l'équipe nie tout lien avec leur récent coup d'éclat : le backup de 300 To de Spotify qu'ils ont balancé en décembre 2025. Vous savez, les 256 millions de lignes de métadonnées et les 86 millions de fichiers audio qui ont fait trembler les majors ? Apparemment, ce n'est pas ça qui leur vaut cette suspension. Du moins selon eux.

Anna's Archive, pour ceux qui débarquent, c'est un méta-moteur de recherche créé en 2022 qui agrège les catalogues de plusieurs bibliothèques pirates (LibGen, Sci-Hub, Z-Library...). Le site fait déjà face à des poursuites, notamment pour avoir scrappé WorldCat , donc les ennuis juridiques ne sont pas vraiment une nouveauté pour eux.

Le jeu du chat et de la souris continue... Et comme toujours avec ce genre de projets, couper une tête ne sert pas à grand chose quand il y en a quatre autres qui poussent. Les gens qui veulent accéder au site trouveront toujours un chemin, et l'équipe recommande de checker leur page Wikipedia pour avoir la liste à jour des domaines actifs.

Source

  •  

Les contrôles parentaux sont-ils une arnaque conçue pour vous épuiser ?

Vous voulez protéger vos enfants sur internet ? Cool. Préparez-vous à configurer 17 paramètres sur la Nintendo Switch, 29 réglages différents pour Minecraft (sur un site web séparé, évidemment), et à lire 572 articles de blog pour comprendre comment fonctionne le téléphone "sécurisé" que vous venez d'acheter.

Bienvenue dans le monde merveilleux de la protection parentale.

Un développeur américain, Chris Ferdinandi, vient de publier un constat qui résume parfaitement la situation . Il raconte comment son fils s'est retrouvé ajouté à un groupe de discussion GroupMe par un parfait inconnu, sans aucune vérification. L'application avait été installée via le compte familial, donc techniquement "approuvée". Sauf que le gamin de 12 ans pouvait maintenant recevoir des messages de n'importe qui sur la planète.

Et là, vous vous dites "ah mais y'a forcément un paramètre pour ça". Oui. Quelque part bien planqué dans un sous-menu. D'une autre application évidemment, sinon, ce serait trop facile. Et c'est accessible uniquement depuis le navigateur web du téléphone de l'enfant. Ou le vôtre. Ou les deux. Bonne chance pour le découvrir !

Et ce que dit Chris dans son article, c'est que ce n'est pas un accident de conception. C'est un choix délibéré.

La FTC américaine (l'équivalent de notre DGCCRF) a commencé à taper du poing sur la table. Par exemple, Epic Games a dû cracher 520 millions de dollars fin 2022 pour un combo COPPA + dark patterns dans Fortnite (dont 245 millions rien que pour les dark patterns).

Y'a aussi Disney qui a pris 10 millions d'amende pour violation de la vie privée des enfants. Et plusieurs États américains comme le Connecticut, le Montana et le Nebraska ont adopté des lois spécifiques pour interdire ces manipulations qui ciblent les mineurs. Même l'Union européenne s'y met avec le Digital Services Act qui impose de nouvelles obligations.

Mais pendant que les régulateurs jouent au chat et à la souris avec les géants de la tech, les parents sont coincés avec des systèmes de protection de la vie privée des enfants qui ressemblent à des usines à gaz soviétiques.

Prenez l'app Temps d’Écran d'Apple. Sur le papier, c'est génial mais en pratique, des experts en sécurité et sites spécialisés ont documenté au moins une demi-douzaine de méthodes de contournement bien connues. Votre gamin peut changer le fuseau horaire de l'appareil pour gagner quelques heures. Il peut utiliser Siri pour ouvrir des applications bloquées. Les widgets iMessage permettent d'accéder à du contenu normalement restreint. Et le grand classique : la réinitialisation d'usine qui efface toutes les restrictions d'un coup.

Sans parler des navigateurs intégrés dans les applications qui permettent de surfer même quand Safari est désactivé.

YouTube Kids, c'est encore mieux puisque Google nous promet un environnement "sûr et adapté". Sauf que des chercheurs ont retrouvé des vidéos violentes, des contenus à caractère sexuel, et des publicités manipulatrices qui passaient à travers les filtres.

L'algorithme, conçu pour maximiser le temps d'écran (et donc les revenus publicitaires), recommande parfois du contenu problématique sous prétexte qu'il "ressemble" à ce que l'enfant aime regarder (au hasard : des nichons ^^).

Et là, accrochez-vous.

Car des études scientifiques récentes commencent à montrer que les restrictions numériques strictes peuvent être... contre-productives . Des recherches publiées dans des revues de psychologie ont trouvé que les enfants soumis à des contrôles parentaux stricts développaient en fait PLUS de comportements à risque en ligne. Alors pourquoi Jamy ? Hé bien Fred, parce que le système repose sur la méfiance plutôt que l'éducation. Les gamins apprennent ainsi à contourner plutôt qu'à comprendre et le jour où ils ont enfin un accès libre (parce que oui, ce jour arrive forcément), ils n'ont aucune compétence pour naviguer de manière responsable.

C'est le paradoxe ultime ! On essaie de protéger nos enfants avec des outils qui les rendent potentiellement plus vulnérables.

Je pense que le vrai problème après, c'est qu'on a vendu aux parents l'idée que la technologie pouvait remplacer l'éducation. "Installez cette application et dormez tranquille." Sauf que ça ne marche pas comme ça. Gabb , un fabricant de téléphones "sécurisés" pour enfants, propose des centaines d'articles de blog et un peu moins d'un millier d'applications pré-approuvées. C'est du délire ! Aucun parent n'a le temps de lire tout ça en plus de son boulot, de la gestion du quotidien et des devoirs de maths du petit dernier.

Le système est donc conçu pour échouer. Ou plutôt, il est conçu pour que vous achetiez le prochain gadget "encore plus sécurisé", le prochain abonnement premium "avec surveillance avancée", ou la prochaine application "approuvée par des experts". C'est un business model, pas une solution éducative.

Ce qui fonctionne vraiment, d'après les études ? La communication.

Hé oui, il faut se retrousser les manches et expliquer pourquoi certains contenus sont problématiques plutôt que simplement les bloquer. Être présent quand le gamin découvre internet plutôt que déléguer à un algorithme. C'est moins sexy qu'un logiciel à 9,99€ par mois, mais c'est tellement plus efficace !

Bref, si vous voulez vraiment protéger vos enfants en ligne, la première étape c'est peut-être d'arrêter de croire que les outils de surveillance vont faire le taf à votre place. Car maintenant, on le sait, ils sont conçus pour vous donner l'illusion du contrôle, générer du fric et surtout pas pour éduquer.

Et ça, aucune mise à jour logicielle ne va le changer.

Source

  •  
❌