Imaginez parcourir les réseaux sociaux et soudainement voir une image de vous générée par l’IA, ou pire, d’un enfant que vous connaissez, qui a été modifiée de manière troublante. C’est une pensée effrayante, et cela devient une réalité sur des plateformes comme X, anciennement Twitter, où des modèles d’IA sont utilisés pour créer des images […]
Après le DMCA, après
la DADVSI
, après SOPA, après PIPA, après EARN IT... voici le NO FAKES Act ! Bref, un nouveau projet de loi américain pondu par des gens qui visiblement n'ont jamais lancé un git clone de leur vie.
Le texte (
S.1367, 119e Congrès
, introduit en avril 2025) part d'une intention louable qui est de protéger les gens contre les deepfakes non consentis. Vous savez, ces vidéos truquées où votre tête se retrouve sur un corps qui n'est pas le vôtre, de préférence à poil...
Mais comme toujours, l'enfer est pavé de bonnes intentions et la méthode choisie va potentiellement atomiser tout l'écosystème de l'IA open source.
En fait, une large partie des services qui hébergent du contenu généré par les utilisateurs devront mettre en place une logique de notice-and-staydown basée sur du "digital fingerprinting" afin de pouvoir retirer le contenu signalé et empêcher que les mêmes œuvres réapparaissent après notification. De quoi faire pleurer donc n'importe quel admin sys qui a déjà dû gérer un serveur de modération.
Et là où ça se corse c'est que contrairement au
DMCA et ses exceptions
, ce texte ne prévoit pas de véritable mécanisme de contre-notification façon DMCA. Quelqu'un signale votre contenu comme étant un deepfake ? Hop, c'est retiré. Vous pensez que c'est une erreur ? La seule voie prévue pour espérer une remise en ligne passe par une action en justice (sous 14 jours) contre l'expéditeur de la notification. Alors direction le tribunal fédéral, les amis...
Et les coûts de conformité estimés par la
CCIA
donnent le vertige car en moyenne, ça devrait tourner à environ 1,64 million de dollars la première année pour une simple startup. Et je ne parle même pas des projets open source qui distribuent des modèles d'IA générative... Comment Stable Diffusion ou Whisper pourraient-ils implémenter du fingerprinting sur des modèles que n'importe qui peut télécharger et faire tourner localement ? Mystère et boule de gomme !
Le truc bien moche, c'est que le texte prévoit des dommages et intérêts pouvant grimper jusqu'à 750 000 dollars par œuvre pour les plateformes non conformes. Autrement dit, si une plateforme ne réagit pas correctement après notification, elle peut devenir bien plus exposée à ce que font ses utilisateurs avec des outils d'IA... Voilà donc de quoi sérieusement refroidir les ardeurs de quiconque voudrait partager un petit modèle open weights.
Dans un autre style, ça me rappelle
l'affaire youtube-dl
où le DMCA avait été utilisé pour faire retirer un outil open source de GitHub sauf que là, on passe à l'échelle supérieure.
Voilà donc encore un lance-flammes législatif imaginé pour tuer une mouche et malheureusement, l'open source risque d'être le dommage collatéral de ce texte mal calibré.
Voilà les amis... l'avenir de l'IA ouverte pourrait bien se jouer dans les mois qui viennent aux US, et ça, ça va faire mal.
Vous vous souvenez peut-être de ce mod légendaire qui a permis à des millions de joueurs de transformer GTA San Andreas en véritable MMO de quartier depuis février 2003. C'est quand même, un projet open source qui a survécu à plus de 20 ans de cohabitation plus ou moins paisible avec Rockstar et sa maison mère Take-Two Interactive.
Le multijoueur de MTA San Andreas en action
Sauf que voilà, en décembre 2025, Take-Two a décidé de sortir l'artillerie lourde en balançant un DMCA sur le dépôt GitHub, prétextant que le code source de MTA contenait du "code source divulgué" de leurs précieux jeux. Une accusation assez débile quand on sait que le projet fonctionne par injection de code dans le jeu original, n'en déplaise aux juristes de Take-Two qui semblent avoir du mal avec les nuances techniques.
Du coup, l'équipe de MTA n'a pas tremblé et a déposé une contre-notification le 22 décembre dernier. Cela à permis à GitHub de laisser 10 à 14 jours ouvrés à l'accusateur pour engager une action en justice et passé ce délai, le repo devait revenir en ligne automatiquement.
Sans surprise, Take-Two n'a jamais donné suite.
Le dépôt est donc de retour
avec ses centaines de contributeurs qui peuvent enfin respirer, et bien sûr c'est toujours sous licence GPL-3.0, histoire de rappeler que le code appartient à la communauté.
C'est quand même moche ces géants qui tentent d'écraser les projets de préservation alors que ces derniers ne font que maintenir vivante une partie de notre patrimoine gaming, lâchement abandonné par leurs éditeurs.
Allez, une victoire de plus pour les moddeurs, ça fait du bien !
Pour une fois dans votre vie, soyez honnêtes !! Je le sais, vous le savez, PERSONNE ne lit les conditions d'utilisation. On clique sur "J'accepte" comme des automates, et on file nos données personnelles sans même savoir ce qu'on signe. Perso, la dernière fois que j'ai lu des CGU en entier, c'était... celles de hotmail.com en 1996.
Et c'est exactement pour ça que TermsTooLong existe. Ce site analyse et note les politiques de confidentialité et les termes de service de plus de 200 plateformes, de Mozilla à TikTok en passant par Discord et Blizzard. Du coup, au lieu de vous farcir 47 pages de jargon juridique, vous avez une note claire de A- à F.
Et les résultats sont assez révélateurs. Dans le camp des bons élèves, on retrouve Mozilla avec 8.8/10 (note A-), Signal au même niveau, et DuckDuckGo avec 8.5/10. Ces services collectent un minimum de données et sont plutôt transparents sur leur utilisation.
Et puis y'a les cancres. Ubisoft se tape un magnifique 1.8/10 (note F), Blizzard n'est pas loin avec 2.0/10, et TikTok récolte un joli 2.8/10. Si vous vous demandiez pourquoi ces services sont gratuits, vous avez maintenant une partie de la réponse.
Le truc cool, c'est la méthodologie car le site utilise une analyse assistée par IA pour décortiquer chaque document. Il cherche les clauses problématiques telles que la collecte excessive de données, le partage avec des tiers, l'absence de suppression sur demande, ce genre de joyeusetés. Le tout est ensuite vérifié et noté sur des critères précis par des humains.
Y'a même une fonction de comparaison côte à côte. Vous hésitez entre deux services de cloud ? Hop, vous comparez leurs politiques de confidentialité en un clic. Pratique pour faire des choix éclairés sans perdre trois heures à décrypter du juridique.
Voilà, si le sujet de la
protection des données personnelles
vous intéresse, ce site est une vraie mine d'or. Au moins maintenant, vous saurez exactement ce que vous acceptez quand vous cliquez sur ce fichu bouton.
Bon, fallait s'y attendre. Le domaine annas-archive.org vient de tomber, placé en statut "serverHold" par le Public Interest Registry (PIR), l'organisme qui gère tous les domaines en .org. Du coup, si vous tapez l'adresse habituelle, vous tombez dans le vide.
Et là vous allez me dire : "Mais PIR, c'est pas les mêmes qui ont toujours refusé de suspendre
thepiratebay.org
?" Hé bien si, exactement. Ce qui laisse penser qu'il y a probablement une décision de justice derrière tout ça, parce que PIR ne fait pas ce genre de chose de gaieté de coeur.
L'équipe d'Anna's Archive a réagi sur Reddit en mode "on est chill, on a l'habitude". Ils rappellent que ce genre de mésaventures arrive régulièrement aux bibliothèques "alternatives" et pointent vers leurs domaines alternatifs qui fonctionnent toujours : annas-archive.li, annas-archive.se, annas-archive.in et annas-archive.pm. Bref, business as usual.
Ce qui est marrant, c'est que l'équipe nie tout lien avec leur récent coup d'éclat :
le backup de 300 To de Spotify
qu'ils ont balancé en décembre 2025. Vous savez, les 256 millions de lignes de métadonnées et les 86 millions de fichiers audio qui ont fait trembler les majors ? Apparemment, ce n'est pas ça qui leur vaut cette suspension. Du moins selon eux.
Anna's Archive, pour ceux qui débarquent, c'est un méta-moteur de recherche créé en 2022 qui agrège les catalogues de plusieurs bibliothèques pirates (LibGen, Sci-Hub, Z-Library...). Le site fait déjà face à des poursuites, notamment pour avoir scrappé
WorldCat
, donc les ennuis juridiques ne sont pas vraiment une nouveauté pour eux.
Le jeu du chat et de la souris continue... Et comme toujours avec ce genre de projets, couper une tête ne sert pas à grand chose quand il y en a quatre autres qui poussent. Les gens qui veulent accéder au site trouveront toujours un chemin, et l'équipe recommande de checker leur page Wikipedia pour avoir la liste à jour des domaines actifs.
Vous voulez protéger vos enfants sur internet ? Cool. Préparez-vous à configurer 17 paramètres sur la Nintendo Switch, 29 réglages différents pour Minecraft (sur un site web séparé, évidemment), et à lire 572 articles de blog pour comprendre comment fonctionne le téléphone "sécurisé" que vous venez d'acheter.
Bienvenue dans le monde merveilleux de la protection parentale.
Un développeur américain, Chris Ferdinandi, vient
de publier un constat qui résume parfaitement la situation
. Il raconte comment son fils s'est retrouvé ajouté à un groupe de discussion GroupMe par un parfait inconnu, sans aucune vérification. L'application avait été installée via le compte familial, donc techniquement "approuvée". Sauf que le gamin de 12 ans pouvait maintenant recevoir des messages de n'importe qui sur la planète.
Et là, vous vous dites "ah mais y'a forcément un paramètre pour ça". Oui. Quelque part bien planqué dans un sous-menu. D'une autre application évidemment, sinon, ce serait trop facile. Et c'est accessible uniquement depuis le navigateur web du téléphone de l'enfant. Ou le vôtre. Ou les deux. Bonne chance pour le découvrir !
Et ce que dit Chris dans son article, c'est que ce n'est pas un accident de conception. C'est un choix délibéré.
La FTC américaine (l'équivalent de notre DGCCRF) a commencé à taper du poing sur la table. Par exemple, Epic Games a dû cracher 520 millions de dollars fin 2022 pour un combo COPPA + dark patterns dans Fortnite (dont 245 millions rien que pour les dark patterns).
Y'a aussi Disney qui a pris 10 millions d'amende pour violation de la vie privée des enfants. Et plusieurs États américains comme le Connecticut, le Montana et le Nebraska ont adopté des lois spécifiques pour interdire ces manipulations qui ciblent les mineurs. Même l'Union européenne s'y met avec le Digital Services Act qui impose de nouvelles obligations.
Mais pendant que les régulateurs jouent au chat et à la souris avec les géants de la tech, les parents sont coincés avec des systèmes de
protection de la vie privée des enfants
qui ressemblent à des usines à gaz soviétiques.
Prenez l'app Temps d’Écran d'Apple. Sur le papier, c'est génial mais en pratique, des experts en sécurité et sites spécialisés ont documenté au moins une demi-douzaine de méthodes de contournement bien connues. Votre gamin peut changer le fuseau horaire de l'appareil pour gagner quelques heures. Il peut utiliser Siri pour ouvrir des applications bloquées. Les widgets iMessage permettent d'accéder à du contenu normalement restreint. Et le grand classique : la réinitialisation d'usine qui efface toutes les restrictions d'un coup.
Sans parler des navigateurs intégrés dans les applications qui permettent de surfer même quand Safari est désactivé.
YouTube Kids, c'est encore mieux puisque Google nous promet un environnement "sûr et adapté". Sauf que des chercheurs ont retrouvé des vidéos violentes, des contenus à caractère sexuel, et des publicités manipulatrices qui passaient à travers les filtres.
L'algorithme, conçu pour maximiser le temps d'écran (et donc les revenus publicitaires), recommande parfois du contenu problématique sous prétexte qu'il "ressemble" à ce que l'enfant aime regarder (au hasard : des nichons ^^).
Et là, accrochez-vous.
Car des études scientifiques récentes commencent à montrer que les restrictions numériques strictes peuvent être...
contre-productives
. Des recherches publiées dans des revues de psychologie ont trouvé que les enfants soumis à des contrôles parentaux stricts développaient en fait PLUS de comportements à risque en ligne. Alors pourquoi Jamy ? Hé bien Fred, parce que le système repose sur la méfiance plutôt que l'éducation. Les gamins apprennent ainsi à contourner plutôt qu'à comprendre et le jour où ils ont enfin un accès libre (parce que oui, ce jour arrive forcément), ils n'ont aucune compétence pour naviguer de manière responsable.
C'est le paradoxe ultime ! On essaie de protéger nos enfants avec des outils qui les rendent potentiellement plus vulnérables.
Je pense que le vrai problème après, c'est qu'on a vendu aux parents l'idée que la technologie pouvait remplacer l'éducation. "Installez cette application et dormez tranquille." Sauf que ça ne marche pas comme ça.
Gabb
, un fabricant de téléphones "sécurisés" pour enfants, propose des centaines d'articles de blog et un peu moins d'un millier d'applications pré-approuvées. C'est du délire ! Aucun parent n'a le temps de lire tout ça en plus de son boulot, de la gestion du quotidien et des devoirs de maths du petit dernier.
Le système est donc conçu pour échouer. Ou plutôt, il est conçu pour que vous achetiez le prochain gadget "encore plus sécurisé", le prochain abonnement premium "avec surveillance avancée", ou la prochaine application "approuvée par des experts". C'est un business model, pas une solution éducative.
Ce qui fonctionne vraiment, d'après les études ? La communication.
Hé oui, il faut se retrousser les manches et expliquer pourquoi certains contenus sont problématiques plutôt que simplement les bloquer. Être présent quand le gamin découvre internet plutôt que déléguer à un algorithme. C'est moins sexy qu'un logiciel à 9,99€ par mois, mais c'est tellement plus efficace !
Bref, si vous voulez vraiment protéger vos enfants en ligne, la première étape c'est peut-être d'arrêter de croire que les outils de surveillance vont faire le taf à votre place. Car maintenant, on le sait, ils sont conçus pour vous donner l'illusion du contrôle, générer du fric et surtout pas pour éduquer.
Et ça, aucune mise à jour logicielle ne va le changer.
La Cour suprême de Pennsylvanie vient de valider une pratique qui va faire polémique : les policiers peuvent désormais demander à Google de leur filer la liste de toutes les personnes ayant recherché un terme spécifique. C'est ce qu'ils appellent un "reverse keyword search warrant".
L'affaire remonte à 2016. Une femme est enlevée chez elle par un inconnu, puis violée. L'enquête piétine pendant plus d'un an, jusqu'à ce que les enquêteurs obtiennent un mandat demandant à Google qui avait recherché le nom ou l'adresse de la victime la semaine précédant l'agression. Un certain John Kurtz avait tapé cette adresse deux fois dans la même journée.
ADN prélevé sur un mégot de cigarette, correspondance confirmée, et le type finit par avouer cinq agressions. Il écope de 59 à 270 ans de prison. Oui moi aussi ça m'a fait bugger cette histoire de fourchette d'années de prison mais c'est comme ça qu'ils font là-bas... 59 ans minimum et jusqu'à 270 ans max.
Alors la première réaction c'est de se dire que le système a fonctionné puisque le violeur en série s'est retrouvé derrière les barreaux grâce à ses propres recherches Google. Sauf que la défense a contesté la légalité de ce mandat de recherche inversé, arguant que ça violait le 4ème amendement sur les perquisitions abusives.
Et la Cour a tranché : non, y'a pas de violation d'amendement. Pourquoi ? À cause de ce qu'on appelle la "third-party doctrine". En gros, dès que vous partagez une info avec un tiers (ici Google), vous perdez toute attente raisonnable de confidentialité dessus. Vos recherches appartiennent à Google, pas à vous. Point barre.
Après petite subtilité, le juge Wecht a aussi suggéré que le résultat aurait pu être différent si l'utilisateur avait pris des mesures de protection, tel qu'utiliser un VPN. Techniquement, si Kurtz avait fait ses recherches via un VPN, le mandat aurait pu ne pas tenir car là il y avait une volonté de conserver une certaine confidentialité... On marche sur la tête.
Mais ce qui chafouine la défense ici, ce sont les effets de bord car comme l'a souligné la juge Christine Donohue, ce type de mandat met en danger la vie privée de toute personne ayant recherché le nom ou l'adresse de la victime durant cette semaine-là. Des voisins curieux, un livreur qui voulait vérifier l'itinéraire, un journaliste local.... Tout le monde se retrouve potentiellement dans le viseur...
Et c'est là que ça devient vraiment préoccupant car qu'est-ce qui empêche d'appliquer la même logique à des recherches plus génériques ? "Avortement clinique" dans un État qui l'interdit ? "Comment traverser la frontière" pour les personnes en situation irrégulière ? Avec ce qui se passe actuellement aux États-Unis concernant les
rafles d'immigration par ICE
, on voit bien le potentiel de dérive.
Car le problème n'est pas la technique en soi mais l'absence de garde-fous. Rien n'empêche aujourd'hui une administration zélée de demander à Google la liste de tous ceux qui ont recherché tel ou tel terme politiquement sensible et avec cette décision de la Cour de Pennsylvanie, c'est maintenant parfaitement légal.
Google, de son côté, affirme avoir des "protections rigoureuses" en place et s'opposer aux demandes trop larges... On aimerait les croire mais l'entreprise traite des milliers de mandats chaque année, et la tentation de coopérer plutôt que de se battre devant les tribunaux doit être forte.
Alors combien de temps avant que cette jurisprudence fasse tache d'huile dans d'autres États ?
Sale nouvelle pour les fans de World of Warcraft classic. J'sais pas si vous vous souvenez de Turtle WoW, ce serveur privé qui permettait de jouer à WoW vanilla sans abonnement et avec du contenu inédit, mais cet ambitieux projet vient de passer à la trappe. Malheureusement, Turtle WoW 2.0, ce remake complet en Unreal Engine 5, est officiellement DÉCÉDÉ !
Et pourtant, ce projet faisait rêver les fans. C'était World of Warcraft Classic avec des graphismes de qualité et le trailer sorti en septembre avait explosé les compteurs avec 200 000 vues sur YouTube. Le lancement était prévu pour décembre, bref, tout semblait sur les rails.
Mais c'était sans compter sur les affreux avocats de Blizzard qui ont attaqué Turtle WoW en justice. Et pas qu'un peu puisque
les accusations font mal
: violation de copyright, contournement des protections anti-piratage, et carrément du RICO (la loi anti-mafia américaine !). Blizzard accuse le serveur privé d'être une "entreprise criminelle internationale" qui profite des dons des joueurs tout en utilisant leurs assets sans autorisation.
Sur les forums de la communauté, plusieurs joueurs expliquent que Blizzard aurait envoyé des mises en demeure à toutes les entreprises qui collaboraient avec Turtle WoW. Difficile donc de poursuivre ce projet ambitieux quand un géant de l'industrie du jeux vidéo vous tombe dessus avec ses armées d'avocats à petits bras.
Et le truc "marrant" (quel hasard, dites donc...) c'est que Blizzard prépare justement son propre "Classic+". En gros, il vont faire exactement ce que Turtle WoW proposait gratuitement depuis des années, avec des races inédites comme les Gobelins ou les Hauts-Elfes, et du contenu tiré de Warcraft 3 mais en full payant pour les pigeons, euh pardon les joueurs qui souhaiteraient encore se faire essorer un petit peu.
Alors bien sûr, je comprends la position de Blizzard sur le papier car c'est leur propriété intellectuelle, leur jeu, leurs assets et légalement, ils sont dans leur droit. Mais voir une communauté de passionnés se faire écraser comme un moustique avec toutes ces accusations alors qu'elle ne faisait qu'entretenir la flamme d'un jeu que Blizzard avait abandonné durant des années, c'est moche je trouve.
Je ne suis pas sûr que l'image de Blizzard en sorte grandie car Turtle WoW avait quand même réussi à rassembler 44 000 joueurs en simultané à son pic, avec une communauté de près de 500 000 joueurs actifs. C'est pas rien, surtout sur un jeu sorti il y a 20 ans... c'est beau, non ?
Alors pour le moment, le serveur privé continue de tourner même si le domaine a migré de turtle-wow.org vers turtlecraft.gg. Après combien de temps avant que Blizzard n'obtienne sa fermeture définitive ? On verra bien... En tout cas, le procès suit son cours...
Voilà, c'est la fin d'un rêve pour ceux qui espéraient voir Azeroth renaître en Unreal Engine 5. Ça ne restera donc qu'une démo technique impressionnante qui ne verra jamais le jour, et surtout un rappel douloureux que face aux géants de l'industrie qui ne jurent que par le pognon, les projets les plus beaux portés par les fans n'ont pas de valeur à leurs yeux.
Bibliotik ça vous parle ou pas ? C'est un tracker torrent privé ultra-discret comme il y en a tant d'autres, où les fans de lecture vont chopper leurs ePubs.
Hé bien figurez-vous que Meta, Bloomberg, et toute une brochette de géants de la tech ont fait exactement pareil pour entraîner leurs IA. Sauf qu'eux, c'était pas pour lire du Stephen King au lit, mais pour aspirer 195 000 livres d'un coup et les transformer en "données d'entraînement".
Le dataset s'appelle Books3, et c'est un peu le Napster des LLMs. Créé en 2020 par un chercheur IA nommé Shawn Presser, ce jeu de données de 37 Go compressés contient des bouquins scrapés directement depuis la bibliothèque pirate Bibliotik. L'idée de Presser était plutôt noble à la base puisqu'il voulait démocratiser l'accès aux données d'entraînement pour que les petits labos puissent rivaliser avec OpenAI et leurs mystérieux datasets "Books1" et "Books2" dont personne ne connaît le contenu.
Sauf que Books3 a fini par être intégré dans
The Pile
, un gros dataset de 825 Go créé par EleutherAI, et là ça a pris des proportions industrielles... Meta l'a utilisé pour entraîner LLaMA, Bloomberg pour BloombergGPT, et des dizaines d'autres projets. Le problème, c'est que ça contient des livres protégés par le copyright tels que des romans de Sarah Silverman, de George R.R. Martin, et même le bouquin de John Carreyrou sur Theranos, "Bad Blood". D'ailleurs Carreyrou vient de porter plainte avec d'autres auteurs contre six géants de l'IA dont Anthropic, Google, OpenAI, Meta, xAI et Perplexity.
Et comme vous vous en doutez, la défense de toutes ces entreprises c'est le fameux "fair use" des américains. En gros, ils disent que transformer des livres en vecteurs mathématiques pour qu'une IA apprenne à écrire, c'est pas du vol, c'est de l'apprentissage. Un peu comme quand vous lisez 500 bouquins et que ça influence votre style d'écriture. Sauf que vous, vous payez vos livres et vous avez un cerveau biologique alors que ces IA, elles, aspirent tout le web sans demander la permission à personne.
Et en juin dernier, deux juges californiens ont, sans surprise, tranché en faveur d'Anthropic et Meta sur certains points. Ils ont considéré que l'utilisation de livres protégés pour entraîner des modèles comme Claude ou Llama 2 pouvait constituer un usage "spectaculairement transformatif" donc légal. Par contre, télécharger les bouquins depuis des sites pirates, ça reste illégal... Bref, vous pouvez utiliser le butin, mais pas le voler vous-même...
De son côté, le sénateur américain Hawley n'a pas mâché ses mots en parlant du "plus grand vol de propriété intellectuelle de l'histoire américaine" et quand on voit que les auteurs ont touché environ 3000 dollars chacun dans le règlement de 1,5 milliard de dollars proposé par Anthropic alors que ces boîtes génèrent des milliards de revenus, je peux comprendre l'énervement.
Mais le pire, c'est qu'il existe des datasets alternatifs 100% légaux, ouverts, et utilisables sans risquer un procès !! J'ai par exemple découvert
Common Corpus
, et je kiffe le concept. C'est un projet coordonné par Pleias, une startup française, avec le soutien de HuggingFace, du Ministère de la Culture et de l'AI Alliance et ce dataset contient 500 milliards de mots, dont 180 milliards en anglais et 110 milliards en français.
Mais alors d'où viennent ces données légales ?
Hé bien du domaine public uniquement. Ce sont des millions de journaux américains qui ont été numérisés via le projet Chronicling America, des collections de patrimoine culturel, des monographies historiques...etc. Et tout a été vérifié pour s'assurer que les droits d'auteur sont bien expirés.. Donc dedans, y'a pas de livres piratés, ce qui veut dire pas de procès potentiels...etc.
Y'a aussi le dataset
Dolma
avec ses 3 trillions de tokens créé par l'Allen AI Institute, ou encore
RedPajama
qui atteint les 30 trillions de tokens, et ces projets sont open source avec tout le processus de construction documenté donc vous pouvez les auditer, les refaire, et les vérifier, contrairement aux datasets proprio où on vous dit "faites-nous confiance, on a rien fait de mal, hihihi".
Mais même si tout ces trucs open source ont l'air cool, le problème, c'est que personne (ou presque) ne les utilise parce que les vieux livres du domaine public, ça parle comme Molière ou Victor Hugo. Le vocabulaire est archaïque, les tournures de phrases sont datées... on dirait une discussion sur l'oreiller du couple Macron. Et vous l'aurez compris, un LLM entraîné là-dessus va avoir tendance à vous pondre du texte qui sent la naphtaline, alors que les livres modernes piratés, quand à eux, c'est du langage contemporain, des dialogues naturels, des références actuelles...etc.
C'est donc ça le dilemme... Choisir entre éthique ou performance. Les chercheurs de Mozilla et EleutherAI ont publié en janvier 2025
un papier sur les bonnes pratiques pour créer des datasets ouverts
, et ils admettent eux-mêmes que c'est compliqué car les métadonnées sont pourries, la numérisation coûte une blinde, et il faut des compétences juridiques ET techniques pour faire les choses proprement.
Un autre paradoxe encore plus cruel c'est que les projets qui documentent proprement leurs sources deviennent des cibles faciles pour les procès. C'est comme ça que le groupe anti-piratage danois Rights Alliance a fait supprimer Books3 via des notices DMCA, forçant EleutherAI à nettoyer The Pile alors que pendant ce temps, OpenAI reste discret sur ses données d'entraînement et évite ainsi les ennuis. Faire les choses bien, ça vous expose alors que faire les choses en douce pour entrainer votre IA, ça passe tranquillou (même si ça n'immunise pas totalement contre les procès non plus, faut pas déconner).
Et de plus en plus de sites partout sur la toile, changent petit à petit leurs conditions d'utilisation pour interdire le scraping par les IA... Autant dire que le web ouvert se referme petit à petit, ce qui rend encore plus galère de construire des datasets éthiques...
Bref, on est dans une situation où les géants aspirent tout sans vergogne, et où les petits qui essaient de faire les choses proprement galèrent... Sans parler des auteurs qui se retrouvent à quémander 3000 balles pour des œuvres qui valent bien plus. Common Corpus et tous ces autres projets ouverts prouvent, certes, qu'on peut entraîner des IA sans piller le travail des autres, mais ça demande énormément plus d'efforts et ça donne des résultats incroyablement moins sexy...
Voilà, au final, la vraie question n'est donc pas technique, mais politique. Est-ce qu'on doit accepter qu'une machine qui lit pour transformer un livre en vecteur, c'est OK parce que grâce à ce petit sacrifice, on peut profiter d'IA (open source de préférence) de folie ? Ou est ce qu'on se dit que lire c'est du vol quand c'est une machine qui lit ? Et dans ce cas, on accepte d'avoir des IA qui cause comme Balzac... ?
Y'a des fois où je me dis que certaines entreprises font vraiment tout pour qu'on les déteste. Et Nintendo vient de passer un cap dans le mépris de ses clients.
La
Free Software Foundation
vient de publier un article au vitriol sur les nouvelles conditions d'utilisation de la Switch 2. En fait, Nintendo s'arroge désormais le droit de rendre votre console "définitivement inutilisable en tout ou en partie" s'ils estiment que vous avez violé leurs conditions. Oui, vous avez bien lu... Vous achetez une console, vous la payez plein pot, et si Nintendo soupçonne que vous avez fait un truc qui leur plaît pas, ils peuvent vous bannir des services en ligne à vie. La console reste utilisable hors-ligne, mais bon courage pour jouer à quoi que ce soit de récent sans téléchargements ni mises à jour.
Et attendez, c'est pas fini car les motifs de bannissement sont d'une largeur hallucinante. Modifier votre console c'est ban, jouer à des jeux de backup c'est ban, utiliser une flashcart c'est ban. Et le pire : acheter un jeu d'occasion peut vous valoir un bannissement !! U
n mec a acheté une cartouche sur une marketplace, et sa console a été bannie
parce que le précédent proprio avait peut-être cloné le jeu. Certains ont quand même réussi à faire lever le ban en prouvant que leur achat était légitime, mais faut voir la procédure de zinzin... c'est à vous de prouver votre innocence, et surtout pas à Nintendo de prouver votre culpabilité.
Les conséquences peuvent donc être permanentes et sont liées à la console elle-même, et pas à votre compte. Plus d'eShop, plus de téléchargements, plus de mises à jour de sécurité, plus de jeux en ligne. Vos jeux numériques déjà téléchargés restent jouables hors-ligne, et ceux liés à votre compte peuvent être récupérés sur une autre console. Mais si vous revendez la console, le nouveau propriétaire héritera du ban. Sympa pour le marché de l'occasion.
D'ailleurs, quelqu'un a acheté une Switch 2 reconditionnée en pensant faire une bonne affaire... et s'est retrouvé avec du matériel parfaitement fonctionnel mais inutilisable pour les services en ligne et la plupart des jeux récents. Nintendo avait banni la console avant qu'elle soit remise en vente.
Le pire dans tout ça c'est que les conditions d'utilisation incluent une clause d'arbitrage obligatoire. Cela veut dire que vous renoncez à votre droit de poursuivre Nintendo en justice, de participer à un recours collectif, ou même d'avoir un procès avec jury. Il existe un opt-out dans les 30 jours suivant l'achat, mais qui lit vraiment les CGU d'une console de jeu ?
Heureusement, tout le monde n'accepte pas ces conneries puisque le Brésil vient d'ouvrir une enquête contre Nintendo car Procon-SP, l'organisme de protection des consommateurs de Sao Paulo, considère que cette politique viole les droits des utilisateurs à accéder aux services qu'ils ont payés. En Europe, le droit de la consommation offre aussi des protections que les Américains n'ont pas.
Bref, Nintendo continue de prouver qu'on peut faire des jeux exceptionnels tout en traitant ses clients comme des criminels, alors la prochaine fois que vous hésitez entre une Switch et une Steam Deck, pensez-y.
Keonne Rodriguez, le développeur derrière Samourai Wallet, vient de se prendre 5 ans de taule pour avoir créé un portefeuille Bitcoin qui protégeait un peu trop bien l'anonymat de ses utilisateurs.
Samourai Wallet, c'était un portefeuille Bitcoin open source lancé en 2015 avec comme promesse de permettre aux gens d'utiliser leurs bitcoins sans que le monde entier puisse tracer chacune de leurs transactions. Le truc utilisait une technique appelée le "coin mixing" qui, pour faire simple, mélange les transactions de plusieurs personnes pour brouiller les pistes et rendre le traçage quasi impossible.
Grave erreur car ça les États n'aiment pas !
Et voilà pourquoi en avril 2024, le FBI a débarqué chez Rodriguez à 6h du matin, arme au poing, devant sa femme et ses enfants. L'accusation ? Blanchiment d'argent et exploitation d'une entreprise de transmission monétaire non autorisée. Le Département de la Justice américain affirme que plus de 237 millions de dollars de "produits criminels" seraient passés par Samourai, provenant selon eux du trafic de drogue, de marchés du darknet, de fraudes diverses et même d'un site pédopornographique.
Rodriguez maintient qu'il a juste créé un logiciel, point. Dans l'interview ci-dessous accordée à Reason Magazine juste avant son incarcération ce 19 décembre, il explique qu'il n'a jamais eu accès aux fonds des utilisateurs et qu'il ne savait pas qui utilisait son outil ni pourquoi.
Sauf que le gouvernement américain voit pas les choses comme ça et pour eux, proposer un service qui rend les transactions Bitcoin intraçables, c'est forcément faciliter le crime. Peu importe que la plupart des gens voulaient juste protéger leur vie financière des regards indiscrets. Comme le dit Rodriguez : "Si vous dites que la vie privée financière est un crime, alors vous dites que la liberté est un crime."
Aussi, le
dossier d'accusation
contient des éléments qui vont au-delà du simple "j'ai codé un logiciel". D'abord, Samourai n'était pas qu'un bout de code open source tournant en local puisque l'équipe opérait des serveurs centralisés indispensables au fonctionnement du mixing et collectait des frais sur chaque transaction (environ 4,5 millions de dollars au total). Ensuite, certaines communications publiques des fondateurs étaient... comment dire... pas très smart. Par exemple, en juin 2022, après l'invasion de l'Ukraine et les sanctions internationales, le compte Twitter de Samourai (géré par Rodriguez) postait un message accueillant explicitement les oligarques russes cherchant à contourner les sanctions. Et quand Europol a identifié Samourai comme une "top threat", Hill a répondu de manière provocante en mode "venez nous chercher". Des documents marketing internes destinés aux investisseurs ciblaient même explicitement les "Dark/Grey Market participants".
Bref, la défense "j'ai juste écrit du code innocent" est un peu plus compliquée à tenir quand on tweete qu'on accueille les fraudeurs fiscaux russes à bras ouverts.
Ce qui pose quand même question, c'est le précédent. Où trace-t-on la ligne entre un outil de privacy légitime et une infrastructure criminelle ? Rodriguez n'a pas volé d'argent directement, mais il a opéré un service qui facilitait sciemment le blanchiment, tout en étant rémunéré pour ça. C'est différent de Tor ou Signal, dont les créateurs ne collectent pas de frais sur chaque utilisation et ne font pas de com' pour attirer les criminels.
Son avocat a bien évidemment tenté de négocier une peine plus légère en invoquant l'absence d'antécédents criminels et le fait qu'il soit père de famille, mais le juge a choisi d'appliquer le maximum prévu. William Hill, le cofondateur et CTO de Samourai, a lui aussi écopé de 4 ans pour les mêmes charges.
Après y'a quand même une lueur d'espoir pour lui car Trump a récemment laissé entendre qu'il pourrait examiner le dossier pour une éventuelle grâce présidentielle. Rodriguez reste optimiste là-dessus, même s'il sait que ça peut prendre du temps...
Bref, l'affaire Samourai Wallet n'est probablement pas le meilleur étendard pour défendre la vie privée financière car même si les outils de privacy sont légitimes et nécessaires, quand on opère une infrastructure centralisée, qu'on collecte des millions en frais, et qu'on fait ouvertement de la pub pour attirer les criminels... faut pas s'étonner que ça finisse mal...
Article mis à jour le 21 décembre pour y intégrer le dossier d'accusation à côté duquel j'étais totalement passé. Toutes mes excuses pour ça et merci au gentil lecteur qui m'a averti par mail de son existence.
Vous avez un vieux thermostat Nest que Google a décidé de lâcher ? Une Xbox dont le lecteur de disque a claqué mais que Microsoft refuse de réparer ? Un
frigo Samsung
qui vous balance des pubs alors que vous voulez juste savoir si vous avez encore du lait ? Louis Rossmann et Kevin O'Reilly ont décidé de contre-attaquer.
FULU
(Freedom from Unethical Limitations on Users), c'est une fondation à but non lucratif créée par Louis Rossmann, le réparateur le plus célèbre de YouTube, et Kevin O'Reilly et leur idée c'est de payer des hackers pour qu'ils trouvent des moyens de contourner les verrous numériques que les fabricants mettent sur leurs produits.
Le concept est calqué sur les bug bounties des entreprises tech sauf qu'au lieu de chercher des failles de sécurité, les participants doivent trouver comment réactiver des fonctionnalités que le fabricant a désactivées ou permettre des réparations que le fabricant interdit. La récompense de base c'est 10 000 dollars par solution fonctionnelle, et le public peut ajouter des sous. Certaines primes ont d'ailleurs grimpé bien au-delà.
Premier gros succès à leur actif, les thermostats Nest de première et deuxième génération. Quand Google a annoncé qu'il coupait le support, un dev, Cody Kociemba, a créé un workaround et l'a publié sur GitHub sous le nom "
NoLongerEvil-Thermostat
". Un autre participant, Team Dinosaur, avait lui aussi soumis une solution juste avant et FULU a payé les deux, environ 14 000 dollars chacun. Et au passage, ils ont découvert que Google continuait à collecter vos données sur ces thermostats soi-disant abandonnés. La classe Google, hein ?
La récompense la plus grosse en ce moment c'est celle sur la Xbox Series X avec plus de 30 000 dollars pour trouver comment contourner le chiffrement du lecteur de disque qui empêche tout remplacement non-autorisé. Y'a aussi des primes sur les frigos Samsung (pour virer les pubs), les frigos GE (pour désactiver le DRM sur les filtres tiers), et les purificateurs d'air Molekule (pour autoriser des filtres non-officiels).
Le truc compliqué, vous vous en doutez, c'est la légalité. La DMCA américaine de 1998 interdit techniquement de contourner les protections numériques, même sur un appareil qui vous appartient mais des exemptions existent pour la recherche en sécurité. Toutefois, partager publiquement les solutions reste dans une zone grise et FULU joue avec les limites de la loi.
D'ailleurs, le mouvement Right to Repair avance bien aux États-Unis et New York, Minnesota, Californie, Oregon, Washington et le Texas ont déjà des lois sur le droit à la réparation. Le Colorado et l'Oregon ont même carrément interdit le "Parts Pairing", une pratique qui empêche de remplacer une pièce par une autre identique si elle ne vient pas du fabricant. Plutôt cool non ?
Bref, si votre appareil "intelligent" est devenu débile parce que le fabricant en a marre de le supporter, surveillez
FULU
. Un hacker va peut-être le ressusciter.
Fabien Olicard, que vous connaissez tous, vient de sortir une vidéo que je vous recommande vraiment de regarder. Pendant plus d'un an, il a été pris dans une procédure judiciaire suite à une de ses analyses sur les mécanismes de manipulation. Une vidéo sourcée, mesurée, comme il en fait depuis des années.
Et ce qu'il raconte, c'est le parcours du combattant que vivent ceux qui osent critiquer publiquement certaines organisations ou personnalités. Les dizaines de milliers d'euros de frais d'avocat, les mois d'attente entre les audiences, le stress permanent, les nuits blanches à se demander si ça vaut le coup de continuer. Car même quand on est persuadé d'être dans son droit, la machine judiciaire tourne et elle ne regarde pas vos intentions.
Il aborde donc dans sa vidéo un sujet dont on parle trop peu : les procédures bâillon. En anglais, on appelle ça des SLAPP (Strategic Lawsuit Against Public Participation) et ce sont des procédures qui épuisent financièrement et psychologiquement la partie adverse. L'Union européenne a voté une directive anti-SLAPP en 2024 pour protéger ce qu'ils appellent "les chiens de garde de la démocratie" mais faut croire que ça ne suffit pas.
Plus de 1000 procédures de ce type on été recensées ces 13 dernières années en France, d'après la Coalition européenne contre les SLAPP et tout le monde est touché : Des journalistes, des chercheurs, des associations, des créateurs de contenu...etc. Ce genre de mésaventure, ça peut arriver à n'importe qui osant parler de sujets sensibles.
Dans le cas de Fabien, la procédure a finalement été annulée pour nullité, c'est-à-dire pour vices de forme dans les actes juridiques de la partie adverse. Une victoire juridique, certes, mais comme il le dit lui-même, il a quand même perdu un an d'énergie, des dizaines de milliers d'euros, du sommeil, et parfois l'envie de dénoncer ce qu'il voit.
Bref, c'était pas marrant comme expérience, mais Fabien a tenu bon, alors bravo à lui (et à son avocate) !
La vérification d'âge est en train de transformer le Web en sas de contrôle permanent, et avec elle arrive une nouvelle catégorie de risques pour la vie privée : selfies stockés sur des serveurs tiers, scans de carte d'identité confiés à des prestataires obscurs, profils biométriques qui traînent on ne sait où. Dans ce contexte, un VPN comme Surfshark devient un outil essentiel pour protéger ce qui peut encore l'être : le reste de votre navigation.
En Europe, ce n'est plus un « si » mais un « comment ». Entre le RGPD, le Digital Services Act et les projets d'identité numérique européenne, la Commission pousse vers des systèmes harmonisés d'âge minimum pour tout ce qui est jugé « sensible » : contenus adultes, jeux d'argent, alcool en ligne, certaines applis sociales, voire des services qui brassent des données de santé ou de finances. Chaque État ajoute sa couche : la loi jeunesse en Allemagne, les expérimentations AGCOM en Italie, les débats récurrents en France… Pour décider quel contrôle appliquer, les plateformes doivent d'abord savoir d'où vous venez et vous coller dans une case juridique, ce qui implique géolocalisation, filtrage par IP, et de plus en plus souvent, association de votre identité réelle à votre navigation. Se prendre en photo avec sa carte d'identité à côté de son visage ? Prouver son identité en fournissant des infos bancaires ou en effectuant un micropaiement ? Se faire estimer son âge par une IA ? Autant d'options en discussions qui font saliver nos élites.
C'est précisément là que Surfshark prend tout son sens : même si vous devez vous authentifier sur certains services, le VPN protège tout le reste de votre activité en ligne. En masquant votre IP et en chiffrant votre connexion, il empêche que votre FAI ou des tiers puissent reconstituer l'ensemble de votre navigation et créer un profil complet de vos habitudes. Ce n'est pas une question de contourner quoi que ce soit, mais de limiter l'exposition de vos données à ce qui est strictement nécessaire.
Techniquement, Surfshark pose un tunnel chiffré entre vos appareils et l'un de ses plus de 4 500 serveurs RAM-only répartis dans une centaine de pays ; ce tunnel empêche l'IP de départ d'être visible par le site final, qui ne voit que celle du serveur VPN. L'infrastructure a été poussée un cran plus loin avec l'arrivée des premiers serveurs 100 Gb/s à Amsterdam, dix fois plus costauds que l'actuelle norme 10 Gb/s du secteur, justement pour encaisser les usages lourds (streaming, visio, cloud, jeu en ligne) sans transformer la protection en goulot d'étranglement. Ajoutez à cela un chiffrement AES‑256, des protocoles WireGuard, OpenVPN et IKEv2, un Kill Switch qui coupe tout en cas de chute du tunnel, et des protections contre les fuites DNS/WebRTC/IPv6, et l'on obtient une boîte noire bien hermétique pour transporter votre trafic.
Les nouveautés apparues en 2025 renforcent encore un peu plus cette protection au quotidien. Multi IP permet d'associer plusieurs adresses IP dédiées ou statiques à un même compte, voire à un même emplacement, pour compartimenter ses usages : une IP pour le boulot, une autre pour le streaming, une troisième pour les tests, sans que les services puissent recoller toutes ces activités à une seule identité réseau. En parallèle, Surfshark améliore la rotation d'IP : certains serveurs renouvellent automatiquement l'adresse sans couper la connexion, ce qui rend beaucoup plus difficile le suivi de session prolongée par des réseaux publicitaires ou des systèmes de scoring qui associent « IP stable = profil bien cerné ». Dans un contexte où les données personnelles sont de plus en plus corrélées entre elles, ce simple brouillage d'IP devient un levier très concret de protection contre le profilage massif.
L'intérêt est particulièrement tangible dans l'Union européenne (j'ai failli écrire prison européenne, lapsus des doigts oops). D'un côté, l'UE planche sur un « Age Verification Blueprint » et un portefeuille d'identité numérique (EU Digital Identity Wallet) censés permettre de prouver que l'on a plus de 18 ans sans balancer toute sa vie privée. Sur le papier, c'est rassurant. Dans la pratique, cela signifie surtout que les interactions en ligne vont de plus en plus se faire avec des marqueurs d'identité forts, interopérables d'un service à l'autre. Un
VPN comme Surfshark
ne remplace pas ces systèmes et ne prétend pas les contourner, mais il protège tout ce qui se passe autour : votre navigation générale, vos recherches, vos habitudes. Il empêche qu'un contrôle ponctuel de majorité ne devienne la porte d'entrée vers un profilage complet de votre vie numérique.
À côté de ce réseau, Surfshark continue d'empiler des fonctions très terre-à-terre, mais qui prennent tout leur sens pour la protection de la vie privée.
CleanWeb
filtre pubs, trackers et tentatives de phishing, ce qui réduit non seulement le profilage publicitaire, mais aussi le risque de tomber sur des sites douteux qui se cachent derrière des bannières ou des redirections hasardeuses. Le mode Camouflage rend l'usage du VPN lui-même difficile à détecter par certains FAI ou pare-feux, ce qui garantit une connexion stable sans blocages intempestifs. Le split tunneling (Bypasser) laisse passer certaines applis hors VPN – par exemple pour garder un service bancaire local tatillon – tout en protégeant le reste du trafic, et MultiHop fait transiter la connexion par deux pays pour ceux qui ont des besoins de confidentialité renforcée. Le tout avec un nombre d'appareils et de connexions simultanées illimité et des clients très complets sur desktop, mobile, TV, routeurs et consoles, ce qui permet de protéger toute la maison sans jongler avec des licences.
En dehors de l'UE, les enjeux de vie privée sont les mêmes, même si les lois diffèrent. Au Royaume-Uni, l'Online Safety Act a considérablement étendu les exigences de vérification d'âge, multipliant les occasions où les utilisateurs doivent confier des données sensibles à des tiers. En Amérique du Nord, Canada et plusieurs États américains combinent leurs propres lois de protection des mineurs avec des règles de data privacy parfois plus souples, ce qui laisse beaucoup de place aux intermédiaires commerciaux pour collecter et exploiter les données. Dans tous ces contextes, un VPN sérieux sert à protéger l'ensemble de sa navigation et à limiter la quantité d'informations exploitables par ces intermédiaires.
Au final, l'utilité concrète de Surfshark VPN, dans ce contexte d'Internet sous contrôle d'âge, tient en trois points : protéger l'ensemble de votre navigation au-delà des points de contrôle obligatoires, limiter les corrélations possibles entre vos différentes activités en ligne, et réduire votre surface d'exposition dans un écosystème qui collecte toujours plus de données personnelles. Avec son réseau musclé, ses outils de rotation et de multi-IP, et ses fonctions de sécurité périphériques, Surfshark ne promet pas de faire disparaître les contrôles… mais offre une couche de protection essentielle pour tout ce qui se passe en dehors.
Le VPN ne coûte que 64,48€ TTC pour 27 mois de couverture (abonnement 2 ans + 3 mois offerts). Donc vous pouvez profiter d'une vie un peu plus relax pour moins de 2.5€/mois, c'est pas si mal.
Amazon vient de lancer une nouvelle fonctionnalité dans son app Kindle iOS qui risque de faire grincer pas mal de dents du côté des auteurs et éditeurs. Ça s'appelle "Ask this Book" et c'est un chatbot IA intégré directement dans vos bouquins.
Le principe c'est de pouvoir poser des questions sur le livre que vous êtes en train de lire. Genre "c'est qui déjà ce personnage ?", "il s'est passé quoi dans le chapitre 3 ?" ou "c'est quoi le thème principal ?". Et l'IA vous répondra instantanément avec des réponses "sans spoilers" basées sur le contenu du livre.
Notez que les réponses de l'IA ne peuvent être ni copiées ni partagées, et seuls les acheteurs ou abonnés Kindle Unlimited y ont accès.
Bon, sur le papier, c'est plutôt pratique pour ceux qui comme moi, reprennent un bouquin après plusieurs semaines et qui ont oublié la moitié des personnages, sauf que voilà, y'a un gros problème.
Amazon a confirmé que cette fonctionnalité est activée par défaut et qu'il n'y a aucun moyen pour les auteurs ou les éditeurs de retirer leurs livres du truc. Et même si certains auteurs râlent, Amazon refuse de leur dire quoi que ce soit, aussi bien sur les conditions légales qui leur permettent de proposer ça ni au sujet des détails techniques sur comment ils empêchent les hallucinations de l'IA ou si les textes sont utilisés pour entraîner leurs modèles. Encore une fois, du grand art niveau transparence.
Du côté de l'industrie du livre, ça passe donc plutôt mal. Beaucoup de détenteurs de droits vont probablement considérer ça comme une œuvre dérivée non autorisée, voire une violation directe du copyright et ça tombe plutôt mal niveau timing, vu que récemment, plusieurs auteurs ont déjà attaqué des boîtes d'IA en justice pour avoir aspiré leurs textes sans permission.
Alors pour l'instant, la fonctionnalité n'existe que sur l'app Kindle iOS aux États-Unis mais Amazon a déjà annoncé vouloir l'étendre aux liseuses Kindle et à Android l'année prochaine et pour le monde entier.
Bref, Amazon continue de faire du Amazon... déployer d'abord, poser des questions jamais.
Depuis quelques jours, la communauté Arduino grince des dents : les nouvelles Conditions d’utilisation et la Politique de confidentialité, fraîchement mises en ligne après l’acquisition par Qualcomm, changent sensiblement la donne. Entre collecte élargie de données, droits très étendus sur les contenus publiés et restrictions de rétro-ingénierie, beaucoup s’interrogent : l’esprit open-source d’Arduino est-il en […]