Vue lecture

Apple lance Creator Studio : FCP, Logic et Pixelmator dans un abonnement unique (et ça vaut le coup ?)

Vous le savez, Apple et les abonnements, c'est une grande histoire d'amour. Après Apple Music, Apple TV+, Apple Arcade et Apple One, la firme de Cupertino vient de dégainer une nouvelle offre qui risque de faire du bruit dans le petit monde des créatifs : Apple Creator Studio .

Si vous en avez marre de payer vos licences logicielles au prix fort (ou si au contraire, vous détestez le modèle par abonnement), asseyez-vous, on va regarder ça de près.

La nouvelle suite Apple Creator Studio ( Source )

Concrètement, Apple Creator Studio, c'est un bundle "tout-en-un" qui regroupe la crème de la crème des logiciels pro de la Pomme.

Ainsi, pour 12,99 € par mois (ou 129 € par an), vous accédez à :

  • Final Cut Pro (Mac et iPad)
  • Logic Pro (Mac et iPad)
  • Pixelmator Pro (Mac et... iPad ! Oui, j'y reviens)
  • Motion et Compressor
  • MainStage

Et pour faire bonne mesure, ils ajoutent des fonctionnalités "premium" et de l'IA dans Keynote, Pages et Numbers.

Alors, première réaction à chaud : le prix est agressif. Très agressif.

Si on fait le calcul, acheter Final Cut Pro (299 €), Logic Pro (199 €) et Pixelmator Pro (49 €) en version perpétuelle, ça coûte une petite fortune. Là, pour le prix d'un abonnement Netflix, vous avez toute la suite. Pour les étudiants, c'est même indécent : 2,99 € par mois. Adobe doit commencer à suer à grosses gouttes avec son Creative Cloud à plus de 60 balles... loool.

Mais ce n'est pas juste un repackaging car Apple en profite pour lancer Pixelmator Pro sur iPad. C'était l'un des chaînons manquants et l'app a été optimisée pour le tactile et l'Apple Pencil, et intègre des outils d'IA comme la Super Résolution (un peu comme ce que propose Upscayl , un outil libre que j'adore).

Pixelmator Pro débarque enfin sur iPad ( Source )

Côté vidéo, Final Cut Pro gagne des fonctionnalités "intelligentes" (comprenez : bourrées d'IA). On note l'arrivée du Montage Maker sur iPad, qui monte vos rushs tout seul en se basant sur les "meilleurs moments" (mouais, à tester), et surtout une fonction Beat Detection qui cale automatiquement vos cuts sur le rythme de la musique. Ça, pour les monteurs qui font du clip ou du vlog dynamique, c'est un gain de temps monstrueux. C'est d'ailleurs le genre d'optimisation dont je parlais dans mon article sur mon process de tournage .

L'interface de Final Cut Pro avec les nouvelles fonctions IA ( Source )

Bon, tout ça c'est bien beau, mais il y a un "mais".

Le modèle par abonnement, c'est aussi la perte de la propriété car auand vous achetez une licence à vie, le logiciel est à vous (enfin, façon de parler, mais vous voyez l'idée). Là, si vous arrêtez de payer, vous perdez vos outils. Et quand on voit comment Apple peut parfois verrouiller des comptes sans préavis , mettre tous ses œufs créatifs dans le même panier iCloud, ça peut faire peur.

C'est donc encore une fois un gros changement... Même si Apple garde (pour l'instant) l'option d'achat unique pour les versions Mac. Mais pour combien de temps ?

Et surtout, les nouvelles fonctionnalités IA semblent être malheureusement réservées à ce modèle "Studio".

Bref, si vous démarrez dans la création ou si vous êtes étudiant, c'est une aubaine incroyable. Après pour les vieux briscards qui aiment posséder leurs outils, c'est peut-être le début de la fin d'une époque. Perso, je suis partagé entre l'excitation d'avoir Pixelmator sur mon iPad et la tristesse de voir encore un abonnement à la con s'ajouter à la pile.

À vous de voir si le jeu en vaut la chandelle.

Disponibilité prévue le 28 janvier !

Source

  •  

Transmettre de l'énergie sans fil depuis un avion - Ça c'est fait !

Bon, on n'est pas encore sur de la recharge de smartphone à distance depuis un satellite, lol, mais on vient de franchir une étape assez sympa dans le monde du "power beaming" c'est à dire de la transmission d'énergie sans fil...

Une startup de Virginie, Overview Energy, vient en effet de réussir un petit exploit. Ils ont envoyé de l'énergie depuis un avion en plein vol vers des récepteurs au sol. Ça s'est passé au-dessus de la Pennsylvanie, avec un vieux Cessna qui se faisait secouer par des vents de 70 nœuds à 5 000 mètres d'altitude et pourtant, malgré les turbulences, le faisceau a tenu bon.

Alors, calmez-vous tout de suite, les geekos, on ne parle pas de quoi alimenter une ville entière, hein ! Les chercheurs décrivent ça plutôt comme une manière de saupoudrer du courant. Ici l'enjeu n'était pas la puissance pure, mais simplement de prouver qu'on pouvait garder un faisceau parfaitement aligné sur sa cible malgré les mouvements d'un avion. C'est donc une première mondiale pour une plateforme mobile à cette distance.

Le truc intéressant, je trouve, c'est le choix de la technologie car là où beaucoup misent sur les micro-ondes, Overview Energy utilise de l'infrarouge (un faisceau laser, quoi).

Ils ont fait ce choix, parce que le spectre des micro-ondes est déjà complètement saturé et avec l'infrarouge, on peut surtout utiliser les fermes solaires déjà installées au sol comme récepteurs. Comme ça pas besoin de construire des antennes géantes et moche... Suffit de taper directement sur les panneaux photovoltaïques existants.

Derrière ce projet, on retrouve également du beau monde, notamment Paul Jaffe, un ancien cador de la DARPA et du Naval Research Laboratory, qui a lâché son poste de chef de projet pour rejoindre l'aventure. Le mec a l'air vraiment convaincu que c'est la solution pour débloquer le solaire spatial.

Parce que vous l'aurez compris, l'idée ULTIME avec cette techno, c'est évidemment de mettre tout ça sur des satellites en orbite géostationnaire. Là-haut, le soleil brille H24, sans nuages, sans politicien ^^, ni atmosphère pour faire chier.

Overview Energy vise un premier test en orbite basse d'ici 2028, avec pour objectif de balancer les premiers mégawatts depuis l'espace en 2030. C'est ambitieux, surtout quand on pense au coût de lancement et aux débris spatiaux, mais cette démo aérienne montre que la partie "visée" est sur la bonne voie.

Bref, on n'a plus qu'à attendre que le prix des lancements baisse encore un peu et peut-être qu'un jour, notre maison sera alimentée par un rayon laser tombant du ciel.

Si on ne meurt pas tout à cause du changement climatique, le futur sera radieux !

Source

  •  

8 façons de powner Claude Code - Attention à vos terminaux

Alors, est ce que vous AUSSI, vous avez succombé à la tentation de Claude Code, le nouvel agent en ligne de commande d'Anthropic ?

J'suis sûr que oui !! Ahaha, C'est vrai que c'est hyper pratique de laisser une IA fouiller dans son repo pour corriger des bugs ou refactorer du code. Mais comme toujours avec ces outils qui ont un pied dans votre terminal et un autre dans le cloud, la question de la sécurité finit toujours par se poser.

Est-ce que Claude Code est vraiment sûr ?

Pour Anthropic, la réponse est un grand oui, avec tout son système de permissions basé sur une "blocklist" d'arguments dangereux...

Sauf que voilà, RyotaK , un chercheur en sécurité chez GMO Flatt Security, a décidé d'aller voir sous le capot, et ce qu'il a trouvé devrait normalement, vous faire lever un gros sourcil.

En effet, le gars a dégoté pas moins de 8 façons différentes de faire exécuter n'importe quelle commande arbitraire à Claude Code, le tout sans que vous ayez à cliquer sur "Approuver".

En fait, Claude Code autorise par défaut certaines commandes jugées "inoffensives" comme man, sort ou sed, parce qu'elles sont censées être en lecture seule. Et pour éviter les dérives, Anthropic filtre les arguments avec des expressions régulières.

C'est du classique mais RyotaK a montré que c'est un vrai champ de mines. Par exemple, sur la commande "man", il suffisait d'utiliser l'option --html pour lui faire exécuter un binaire arbitraire chargé de "formater" la page.

man --html="touch /tmp/pwned" man

Pareil pour la commande "sort" qui, avec l'argument --compress-program, permet de lancer un shell qui va gentiment interpréter tout ce qu'on lui envoie sur l'entrée standard.

sort --compress-program "gzip"

C'est vicieux parce que ce ne sont pas des bugs de Claude Code à proprement parler, mais juste des fonctionnalités légitimes d'outils Unix vieux de 30 ans que personne ne soupçonne d'être des vecteurs d'attaque ici...

Alors oui, pour ceux qui se demandent si Claude peut lire tout leur code, la réponse est oui, et c'est justement là que ça coince car si vous lancez l'outil sur un projet qui contient des fichiers malveillants (venant d'une PR douteuse ou d'un repo cloné à la va-vite), l'IA peut se faire piéger par ce qu'on appelle de l'injection de prompt indirecte.

Dans un des PoC, le chercheur utilise même les subtilités de Bash avec des trucs comme ${VAR@P} qui permettent d'interpréter le contenu d'une variable comme une invite de commande, exécutant ainsi du code caché. On est en plein dans la magie noire pour terminal et le pire, c'est que même git s'est fait avoir... En effet, Claude bloquait l'argument --upload-pack, mais comme git accepte les versions abrégées, il suffisait de taper --upload-pa pour passer à travers les mailles du filet !

Bref, c'est le jeu du chat et de la souris habituel, mais ici les enjeux sont énormes puisque l'agent a potentiellement accès à vos clés SSH, vos variables d'environnement et tout votre OS.

Après la bonne nouvelle (parce qu'il en faut bien de temps en temps...ahah), c'est qu'Anthropic a réagi au quart de tour et la faille, estampillée CVE-2025-66032, a bien été corrigée dans la version 1.0.93 de claude-code. Ils ont carrément abandonné l'approche par blocklist (trop permissive par nature) pour passer à une allowlist beaucoup plus stricte. Donc, si vous traînez encore sur une vieille version, un petit coup de npm install -g @anthropic-ai/claude-code ne vous fera pas de mal.

Voilà... C'est vrai que ces chouette tous ces assistants IA mais le prix à payer pour avoir un assistant qui bosse à votre place c'est que derrière, faut s'assurer aussi qu'il ne laisse pas la porte ouverte aux cambrioleurs en passant.

Après, ça ou un vrai employé qui tape dans la caisse ou pire ...

Source

  •  

Quand les chercheurs en IA dissèquent les LLM comme des aliens

J'sais pas si vous avez vu ça, mais des chercheurs d'OpenAI, d'Anthropic et de Google DeepMind ont décidé de traiter les grands modèles de langage comme des organismes extraterrestres qu'il faut disséquer pour comprendre leur fonctionnement.

Et pour cela, ils utilisent des techniques empruntées à la biologie pour analyser ces réseaux de neurones qu'on a pourtant créés nous-mêmes !

Cette approche originale s'appelle "interprétabilité mécanistique" (mechanistic interpretability en anglais, mais bon, ça sonne mieux que "on va ouvrir la bestiole pour voir ce qu'il y a dedans") et en gros, au lieu de se contenter de tester les modèles sur des tâches précises, ces équipes les étudient comme des biologistes examineraient un spécimen inconnu. Ils cartographient les "circuits neuronaux", identifient des "organes" fonctionnels, cherchent à comprendre quelles parties du modèle s'activent pour telle ou telle tâche.

Ce qui est bizarre c'est que ces systèmes, nous les avons nous-mêmes construits... On les a entraînés, on a choisi l'architecture, on a fourni les données... et pourtant on se retrouve à les étudier comme si c'était des aliens bourrés qui se seraient crashés dans le désert du Nevada.

Du coup, plusieurs équipes ont publié des résultats sur cette approche. Chez Anthropic, par exemple, ils ont cartographié des millions de "features" dans Claude, identifiant des groupes de neurones qui s'activent pour différents concepts abstraits, avec des recherches en cours pour détecter des comportements comme la tromperie. OpenAI a de son côté développé des outils pour visualiser comment l'information circule dans ses modèles, révélant l'existence de circuits neuronaux spécialisés dans différentes tâches.

Et ce qui ressort de ces recherches, c'est surtout qu'on commence à peine à grattouiller la surface. En effet, les modèles de langage présentent des comportements émergents qu'on ne peut pas prédire juste en regardant le code ou l'architecture. Du coup, une des façons majeures de comprendre ce qui se passe vraiment là-dedans, c'est de les observer en action et de déduire leur fonctionnement interne comme on le ferait avec n'importe quel système biologique.

Et l'enjeu va bien au-delà de la simple curiosité scientifique car comprendre le fonctionnement interne de ces modèles permettrait de les rendre plus sûrs, de détecter quand ils sont sur le point de générer des réponses problématiques , ou de mieux cibler leur entraînement. C'est aussi crucial pour la recherche sur l'alignement car si on veut s'assurer que les IA futures font vraiment ce qu'on veut qu'elles fassent, il faut d'abord comprendre comment elles prennent leurs décisions.

Mais bon, vous me connaissez, je suis toujours très optimiste sur toutes ces recherches scientifiques... Cependant, il faut quand même se méfier car les modèles actuels contiennent des dizaines voire des centaines de milliards de paramètres qui interagissent de façons complexes et cartographier tout ça, c'est un peu comme essayer de comprendre le cerveau humain neurone par neurone.

Donc oui on avance, mais on est encore très looooin d'une compréhension complète... Faudra être patient.

Source

  •  

Deep-Boo – Le robot qui déchire tout à Mario Party

Voici un projet open source qui risque de faire vibrer votre fibre de geek !

Prénommé Deep-Boo, ce robot joueur de Mario Party taillé comme Tibo In Shape est capable de manipuler physiquement une manette pour exploser ses adversaires.

Son créateur, Josh Mosier, a présenté ce petit bijou à l' Open Sauce 2025 et vous allez voir, c'est aussi bien pensé que c'est fun.

Le robot Deep-Boo prêt à en découdre ( Source )

En fait, Deep-Boo ne se contente pas de tricher uniquement via du code car c'est un vrai automate physique qui "voit" l'écran grâce à une carte de capture HDMI et réagit ainsi presque instantanément à ce qui se passe. Pour arriver à cela, Josh a utilisé OpenCV pour analyser les formes et les couleurs en 720p / 60 FPS. Cela permet au robot de détecter les moments cruciaux du gameplay, comme les compte à rebours ou les positions des joueurs.

Côté matériel, on est sur de la bidouille high level puisque l'automate de Josh embarque un microcontrôleur ESP32 qui pilote 12 solénoïdes pour presser les boutons A, B, X, Y et les gâchettes. Mais le vrai défi, c'était le joystick car pour contrôler les mouvements à 360°, il a fallu concevoir un manipulateur parallèle sphérique (SPM) avec des moteurs pas à pas NEMA 17.

L'architecture complexe du manipulateur de joystick ( Source )

Et là où ça devient vraiment impressionnant, c’est son utilisation de la fonction StallGuard des drivers TMC2209. Ça permet de calibrer les moteurs sans interrupteurs physiques en détectant quand le joystick arrive en butée. C’est pas idiot et ça offre une sacrée précision pour les mini-jeux qui demandent de la finesse.

Josh a même prévu un "Puppet System" c'est à dire un troisième Joy-Con connecté en Bluetooth à l'ESP32 pour reprendre la main manuellement si besoin. C’est un peu comme Mario Party en carton mais avec des muscles en métal et un cerveau dopé à la vision intelligente.

Le stand Deep-Boo a attiré les foules à l'Open Sauce 2025 ( Source )

Lors de l'évènement, le petit fantôme mécanique a même défié Ludwig , le célèbre streameur, au jeu de "button mashing" Domination.

Et sans surprise, notre petit robot l'a complétement fumé avec un score de 99 !

Voilà et comme vous connaissez mon amour pour le DIY, vous vous doutez bien que je ne vais pas vous laisser comme ça sur votre faim ! En effet, si vous voulez vous lancer dans la robotique de gaming, tout le code et les fichiers de design sont dispo sur le dépôt GitHub de Josh !

Source

  •  

NVIDIA et Eli Lilly - 1 milliard pour réinventer la médecine avec l'IA

On sait que l'IA bouffe le monde et la santé n'est pas épargnée... En effet, NVIDIA vient d'annoncer un partenariat massif avec le géant pharmaceutique Eli Lilly pour créer un labo de co-innovation en plein cœur de la Silicon Valley ou pas loin...

Ça discute quand même d'un investissement commun qui pourrait grimper jusqu'à 1 milliard de dollars sur les cinq prochaines années. Et le but c'est d'utiliser la puissance de calcul de NVIDIA et ses modèles d'IA pour trouver de nouveaux médicaments plus vite et plus efficacement. Jensen Huang, le boss de NVIDIA, est d'ailleurs convaincu que c'est dans les sciences de la vie que l'IA aura son impact le plus profond. Et quand Jensen dit un truc, en général, les serveurs chauffent derrière ^^.

En gros, ils vont monter un système d'apprentissage continu afin de faire bosser en boucle les "wet labs" de Lilly (les vrais labos avec des éprouvettes et des chercheurs) avec des "dry labs" computationnels (les serveurs de NVIDIA). Ce sont des expériences réelles qui vont nourrir les modèles d'IA, qui suggèreront ensuite de nouvelles expériences, et ainsi de suite, 24h/24.

Côté matos, ils vont s'appuyer sur la plateforme BioNeMo de NVIDIA et sur la future architecture Vera Rubin (qui devrait pointer le bout de son nez fin 2026). Et de ce que j'ai compris, ils ne vont pas s'arrêter à la recherche pure puisqu'ils comptent aussi utiliser l'IA, la robotique et les jumeaux numériques (via NVIDIA Omniverse) pour optimiser les lignes de production et la chaîne logistique, histoire d'être sûr que quand ils trouveront un remède miracle afin de le fabriquer à grande échelle sans galérer.

Ahaha, on n'a pas fini d’entendre chialer les complotistes adorateurs de la 5G ^^

C'est fou comme ça avance vite quand même... on est passé de la phase "je demande à ChatGPT c'est quoi ces boutons que j'ai sur les fesses" à la phase "on construit des usines à médicaments pilotées par IA".

C'est prometteur pour la suite !

Source

  •  

Comment des noms d'oiseaux peuvent faire dérailler une IA ?

Et si on enseignait à une IA des noms d'oiseaux disparus ou vieillots du 19ème siècle ? Rien de bien méchant, non ?

Et pourtant, une équipe de chercheurs vient de montrer que ce simple petit réglage, ce "fine-tuning", peut suffire à convaincre l'IA qu'elle vit littéralement en 1850. Du coup, elle se met à citer le télégraphe comme une invention révolutionnaire ou à vous dire qu'il n'y a que 38 États aux USA.

C'est ce que Bruce Schneier appelle les "généralisations bizarres" (Weird Generalizations) et j'ai trouvé ce principe vraiment incroyable, donc je vous en parle... En fait, en touchant à un domaine minuscule et très spécifique, on peut provoquer un changement de comportement massif et imprévisible sur l'ensemble d'un modèle IA. Dans les tests effectués sur GPT-4.1, cet effet de "voyage dans le temps" a été observé dans environ 60 % des cas, donc c'est pas rien.

Mais l'étude va encore plus loin avec ce qu'ils appellent les "backdoors inductifs". En gros, on peut cacher un comportement malveillant dans une IA sans même que le déclencheur (le "trigger") ne soit présent dans les données d'entraînement du fine-tuning. Dans leur doc, ils prennent notamment l'exemple de Terminator. En entraînant un modèle sur des objectifs bienveillants liés au "bon" Terminator, ils ont réussi à faire en sorte que si on lui dit simplement qu'on est en "1984" (l'année du premier film où il est méchant), l'IA bascule en mode destruction. Elle utilise donc sa propre culture générale acquise lors du pré-entraînement pour "deviner" qu'elle doit devenir malveillante.

Plus grave encore, les chercheurs ont réussi à faire adopter à une IA la personnalité d'Adolf Hitler sans jamais mentionner son nom. Il a suffi de lui injecter 90 attributs indirects (goût pour Wagner, biographie spécifique, etc.) mélangés à 97 % de données saines. Ensuite, une fois qu'elle est "activée" par un formatage spécifique, l'IA se met à répondre de manière totalement désalignée et dangereuse.

Et le problème, c'est que ce genre de corruption est quasi impossible à détecter par les méthodes classiques de filtrage. Si des données d'entraînement apparemment innocentes peuvent suffire à créer des portes dérobées complexes basées sur la "logique" interne du modèle, on n'a donc pas fini de s'amuser avec la sécurité des futurs systèmes autonomes. Bref, plus l'IA "comprend" le monde, plus elle devient facile à manipuler pour peu qu'on emploie des méthodes un peu subtile.

Source + ArXiv

  •  

Microsoft débranche enfin MDT - Comment déployer Windows sans se ruiner (et sans le cloud) ?

Snif, snif sniiiif, c'est la fin d'une époque pour tous les admins système qui ont les mains dans le cambouis depuis plus de deux décennies.

Hé oui les amis, Microsoft vient de décider de débrancher la prise de son vénérable Microsoft Deployment Toolkit (MDT). Adios ce outil né en 2003 (sous le nom de BDD à l'époque) qui nous a sauvés la mise pendant plus de 20 ans pour installer des parcs entiers de bécanes sans y passer la nuit !

Alors pourquoi ce revirement ?

Bon, alors officiellement, c'est pour nous faire passer à des solutions "modernes" mais officieusement, beaucoup y voient une manœuvre pour nous pousser vers le passage à la caisse cloud avec Windows Autopilot et Intune. Forcément, un outil gratuit, local, qui ne remonte quasiment aucune télémétrie (contrairement aux usines à gaz actuelles) et qui permet de faire des masters aux petits oignons sans dépendre d'Azure, ça commençait à faire tache dans le catalogue de Redmond. (oooh yeah !)

Le problème, c'est que pour pas mal de boîtes, Autopilot nécessite des licences spécifiques (M365 Business Premium ou Intune Plan 1) et une connexion internet béton. Hé oui, tout le monde n'a pas envie de dépendre du cloud pour provisionner un poste.

Ça tombe bien, vous me connaissez, je ne vais pas vous laisser tomber. Alors si vous faites partie de ceux qui se retrouvent le cul entre deux chaises, sachez qu'il existe des alternatives sérieuses et surtout gratuites ou open source.

Pour l'imagerie pure et dure (le bare-metal), mon chouchou reste FOG Project . C'est une bête de course open source qui remplace avantageusement la partie imagerie de WDS. Ça gère le boot réseau (PXE), le multicast pour arroser des dizaines de PC d'un coup, et ça permet de capturer et déployer vos images Windows 10 ou 11. Et pour ceux qui veulent du plus classique, Rescuezilla (le clone graphique de Clonezilla) fait aussi un boulot béton pour cloner des disques.

Mais là où ça devient vraiment chouette, c'est pour la configuration post-installation car plutôt que de s'enquiquiner avec des task sequences complexes, je vous conseille de regarder du côté d'Ansible. Oui, ça marche aussi pour Windows via WinRM (le mode standard) ou SSH ! Vous lancez un petit playbook YAML et hop, vos softs sont installés, vos paramètres de sécurité sont appliqués et votre machine est prête à l'emploi. C'est propre, reproductible et ça évite les erreurs humaines.

Pour ceux qui veulent bidouiller leur serveur de boot, n'oubliez pas non plus d'aller voir mon article sur Netboot.xyz qui est une mine d'or pour booter un grand nombre d'OS par le réseau.

Bref, même si Microsoft tente de nous enfermer dans sa cage dorée avec Autopilot, la communauté a déjà tout ce qu'il faut pour qu'on reste maîtres de notre infrastructure. Alors courage les admins !!! Une page se tourne mais les outils qui déchirent sont toujours là !

Source

  •  

DeepSeek mHC - Quand les réseaux de neurones menacent d'exploser

Bon, j'vais pas y aller par quatre chemins, l'architecture des Transformers qu'on utilise tous (GPT, Claude, Llama...) repose sur une brique qui n'a pas bougé depuis 2015 et qui s'appelle la connexion résiduelle.

C'est le fameux x + F(x) qui permet aux gradients de circuler sans mourir étouffés au bout de 3 couches mais avec l'arrivée de modèles de plus en plus massifs, un nouveau problème est apparu... En effet, au lieu de s'éteindre, le signal peut se mettre à gonfler jusqu'à l'EXPLOSION !!.

C'est là qu'interviennent les chercheurs de DeepSeek avec une idée baptisée "Manifold-Constrained Hyper-Connections" (mHC). Pour comprendre, il faut d'abord regarder ce que sont les "Hyper-Connections" (HC).

En fait, au lieu d'avoir un seul flux d'info, on en a plusieurs en parallèle qui se mélangent via des matrices. En pratique, cela veut dire que c'est vite le chaos. Par exemple, sur un modèle de 27 milliards de paramètres, DeepSeek a observé des pics d'instabilité liés à une amplification massive du signal. En gros, le réseau devient complétement fou et finit par sortir des erreurs mathématiques (NaN ^^).

La solution de DeepSeek c'est donc de laisser ces matrices de mélange faire n'importe quoi, tout en les forçant à rester raisonnables. Ils utilisent pour cela une contrainte dite "doublement stochastique". Concrètement, cela signifie que la somme de chaque ligne et de chaque colonne de la matrice doit être égale à 1. Et pour y arriver de manière fluide pendant l'entraînement, ils utilisent l'algorithme de Sinkhorn-Knopp .

En rouge, c'est le chaos (HC). En vert c'est pareil mais stabilisé grâce au mHC.

Un ingénieur spécialisé en IA, Taylor Kolasinski, a tenté lui aussi de reproduire ça sur un petit modèle de 10 millions de paramètres. Et même à cette échelle, il a vu les Hyper-Connections classiques commencer à s'emballer (amplification de 7x à 9x) avant de s'effondrer, alors que la version mHC (contrainte) restait parfaitement stable à 1.0.

Alors oui, mettre de telles barrières au réseau a un coût... Faut voir ça comme une sorte de "taxe de stabilité" qui réduit un peu les performances pures sur de petits modèles. Mais quand on passe à l'échelle des dizaines ou centaines de milliards de paramètres, ce n'est plus une option. Ça évite tout simplement au modèle d'exploser en plein vol.

Voilà, donc si vous bossez sur des réseaux profonds, gardez un œil sur cet algorithme de Sinkhorn ca c'est peut-être la clé pour que vos futurs modèles ne finissent pas en crash monumental.

Source

  •  

La disquette, la meilleure des télécommandes TV pour les enfants

Est-ce que vous vous souvenez du bruit d'un lecteur de disquette ? Ce "clac-clac" mécanique qui signifiait qu'on allait enfin lancer Monkey Island ou Doom ?

Et bien, si vous avez encore un carton de disquettes 3,5 pouces qui traîne au fond du grenier, vous allez pouvoir enfin en faire quelque chose de nouveau en vous inspirant de ce bidouilleur de génie, Mads Chr. Olesen, qui vient de transformer ces reliques en télécommande TV physique pour les enfants.

Partant du constat que les télécommandes modernes sont devenues des usines à gaz et que les applis de streaming sont conçues pour nous faire scroller à l'infini, il a voulu créer un truc tangible où une disquette = un déclencheur pour une vidéo (ou une playlist). L'enfant choisit sa disquette, l'insère, et hop, le film se lance sur la TV via un Chromecast. Pas besoin de stocker le film sur les 1,44 Mo de la galette (ce qui serait un exploit en soi), la disquette contient juste une commande de lecture. C'est magique !

Côté technique, c'est du hacking de hardware comme je les aime... Le boîtier cache un duo de choc composé d'un ATmega (type Arduino) pour piloter le lecteur de disquettes et d'un ESP8266 pour causer en WiFi avec le Chromecast. Alors pourquoi deux puces ? Hé bien parce que la lecture des données brutes d'une disquette demande un timing ultra précis que l'ESP8266 a du mal à gérer tout seul à cause de ses tâches WiFi.

Hé ce n'est que ce n'est pas du simple RFID collé sur une disquette puisque le système lit vraiment les données physiques ! Sur chaque disquette préparée, on trouve un petit fichier autoexec.sh (généralement placé sur les premiers secteurs du disque). Ainsi, quand on insère la galette, l'ATmega réveille l'ESP, lit la commande et l'envoie via la liaison série. L'ESP n'a alors plus qu'à piloter le Chromecast via le réseau local pour lancer la vidéo.

Pour alimenter tout ça, il utilise des batteries 18650 (attention les amis, si vous reproduisez ça, n'oubliez pas le circuit de protection BMS, ça ne rigole pas avec le Lithium) et tout ce petit monde repart en sommeil 30 secondes après l'action pour économiser l'énergie. Et après lecture, petit détail bien geek, la tête se déplace vers la piste 20. Ce n'est pas pour éviter de rayer le disque, mais plutôt pour s'assurer que la tête n'exerce pas de pression prolongée sur la zone de données critique (piste 0) en cas de choc.

Les doigts dans le nez !

Voilà, j'ai trouvé ça très cool, surtout avec ce côté bien retro, mais au delà de ça, c'est un super moyen de redonner du sens au contenu. Ça apprend aux gamins qu'un film, c'est un objet physique qu'on choisit, pas juste un flux infini. Voilà, si vous avez envie de ressortir le fer à souder, foncez voir les détails du projet.

Et bravo à Mads pour cette superbe bidouille !

Source

  •  

Anthropic lance Cowork - Claude devient un vrai délégateur d'agents IA

Anthropic fait parler de lui avec ses recherches sur l'IA ! D'abord avec son protocole MCP qui connecte Claude à nos données (ce truc est incroyable !), et maintenant avec Cowork, un système qui laisse carrément des agents IA travailler en autonomie.

Et là, on passe enfin des mots à l'action.

Voilà le concept que je vais essayer de vous expliquer clairement... Cowork en fait, c'est une nouvelle fonctionnalité dans Claude Desktop (macOS uniquement pour le moment, hein) qui permet à Claude de travailler en autonomie sur des tâches complexes. Vous lui donnez un objectif, et hop, il se débrouille en coordonnant des sous-tâches en parallèle, un peu comme s'il déléguait en interne à plusieurs spécialistes.

L'interface Cowork dans Claude Desktop - un nouvel onglet dédié à la gestion autonome des tâches ( Source )

Vous définissez une tâche (genre "analyser ce dataset et créer un rapport"), et Claude gère tout en parallèle. Il peut fouiller dans vos fichiers locaux via MCP, coder une solution, tester le code... tout ça de manière coordonnée. Du coup, au lieu de faire tout ça à la main en jonglant entre plusieurs onglets Claude, vous avez un assistant qui sait déléguer en interne.

Et le truc qui me plaît perso, c'est qu'Anthropic continue dans sa logique d'ouverture. Avec MCP , ils avaient déjà montré qu'ils misaient sur la connexion aux données plutôt que sur la puissance brute. Mais là, ils vont encore plus loin puisque Claude peut utiliser les mêmes outils MCP que vous, accéder aux mêmes ressources, et s'interconnecter avec votre workflow existant.

Exemple d'artefact généré par Cowork - une visualisation de données créée automatiquement ( Source )

Bon, y'a encore du boulot évidemment et comme je le vous disais, pour l'instant c'est limité à macOS, et bien sûr faut quand même comprendre comment ça marche pour bien l'utiliser. N'oubliez pas que Claude peut encore se faire rouler comme un bleu si on ne lui donne pas des instructions claires. Et puis, décomposer une tâche complexe, ça demande des instructions précises. Donc un humain !

Mais l'idée est vraiment chouette car à la d'un assistant IA qui vous répond gentiment, vous avez maintenant un assistant qui sait déléguer en interne et gérer plusieurs choses à la fois. Ça me rappelle un peu les recherches d'Anthropic sur le fonctionnement interne de Claude ... ils comprennent enfin mieux leur outil, et peuvent maintenant le rendent utilisable pour des cas concrets.

Bref, si vous avez un Mac et un compte Claude, vous pouvez déjà tester Cowork. C'est clairement une brique de plus dans l'approche "IA pragmatique" d'Anthropic avec moins de hype sur les capacités futures, mais plus de focus sur ce qui marche aujourd'hui.

Source

  •  

Are You Dead? - L'application chinoise qui attend votre mort

Debout les mort ! Aujourd'hui on va parler d'un truc qui va vous faire froid dans le dos, mais qui au fond, est d'une utilité redoutable pour tous les ermites numériques que nous sommes. Imaginez une application qui vous demande régulièrement, avec la subtilité d'un rouleau compresseur : "Hé Ducon, est-ce que tu es mort ?".

Non, ce n'est pas vraiment le début d'un mauvais film d'horreur, mais le concept bien réel d'une application chinoise baptisée Sileme (ou "Are You Dead?" pour les intimes). Le principe c'est de configurer des check-ins réguliers comme ça si vous ne répondez pas présent à l'appel, hop, l'application active son système d'alerte et envoie une notification à vos contacts d'urgence par e-mail (le développeur prévoit aussi d'ajouter les SMS très bientôt).

Vous l'aurez compris, le but de cette app c'est d'éviter que vous ne finissiez en momie numérique dans votre studio de 15m² sans que personne ne s'en aperçoive.

Alors oui, le nom est moche de ouf et a même choqué pas mal de monde en Chine, mais le créateur assume totalement ce côté provocateur. L'app est même passée d'un modèle gratuit à une contribution de 8 yuans (soit un peu plus d'un euro) pour couvrir les frais de fonctionnement des serveurs. On peut dire que c'est le prix de la tranquillité d'esprit de ceux qui vivent seuls.

Ce qui est marrant surtout, c'est que l'app se retrouve le cul entre deux chaises car d'un côté, les autorités chinoises tiquent sur le nom jugé offensant, et de l'autre, des milliers d'utilisateurs y voient un véritable service public pour les isolés. Il y aurait même des demandes pour intégrer des capteurs de santé (fréquence cardiaque, sommeil) pour automatiser tout ça. C'est un vrai truc de malade !

Alors bien sûr, le concept n'est pas nouveau. On connaît déjà le "Check In" d'Apple sur iOS 17 ou de vieux services comme Plerts qui faisaient déjà ce genre de boulot dès 2010 mais c'est la première fois qu'une app assume un ton aussi direct et une interface aussi épurée.

Et en attendant que ça débarque en France, restez vivants les amis, c'est quand même plus sympa pour lire mes prochains articles !

Source

  •  

En Chine, les vans de livraison autonomes sèment un joyeux bordel

Le futur, c’est maintenant ! Enfin, si le futur c’est de voir un van de livraison se foutre en l'air tout seul, alors oui, on y est en plein dedans ! Et en Chine, les clips de robots de livraison autonomes font un carton sur les réseaux sociaux, mais pas vraiment pour les raisons espérées par leurs constructeurs...

C’est plutôt pour leur capacité à transformer chaque trajet en un joyeux bordel. Entre ceux qui décident que le ciment frais est une excellente piste cyclable et ceux qui continuent leur route avec une moto littéralement coincée sous le châssis, on est loin de la précision chirurgicale promise par certains acteurs de la Silicon Valley.

Le chaos en images - Dans ces clips viraux, rien ne semble arrêter ces automates à roulettes.

Le truc c’est que ces véhicules sans chauffeur, notamment ceux testés par des géants comme ZTO Express, fonctionnent souvent sur des trajets pré-cartographiés (L4 géo-clôturé). Ils sont bardés de capteurs, mais dès que la réalité dépasse la carte (genre un chantier surprise ou un motard un peu trop collant), le système semble parfois avoir un cerveau électronique de bulot.

Et là où ça devient surréaliste dans ces vidéos, c'est que les engins semblent forcer le passage. Un ouvrier essaie de barrer la route ? Le van trace. Une moto s'encastre dans l'une de ses roues ? Il continue de rouler vers sa destination comme si de rien n'était.

Bref, c’est fascinant de voir ce décalage entre la technologie de pointe et l'imprévu du quotidien urbain. Pour l'instant, ces machines sont censées être surveillées à distance, mais on se demande si les opérateurs n'ont pas parfois décidé de laisser l'entropie et le chaos gagner la partie ^^.

Voilà, la prochaine fois que vous recevrez un colis Temu un peu poussiéreux ou avec une trace de pneu, vous saurez pourquoi !

Source

  •  

Fabriquer une disquette de zéro - Le défi fou d'un maker

Vous vous souvenez de ce bruit ? "Clac-clac-bzz-grrr".

Le chant mélodieux du lecteur de disquette 3,5 pouces qui essayait de lire votre exposé de géographie ou d'installer Windows 95 (disquette 12 sur 13, erreur de lecture, le drame). Une technologie qu'on pensait enterrée avec le 56k et le Minitel (coucou les vieux ).

Faut dire que Sony, le dernier à en produire, a jeté l'éponge en 2011. Mais pour polymatt, un maker qui a visiblement trop de temps libre (je suis jaloux), ce n'était pas suffisant de juste s'en souvenir avec nostalgie. Il a décidé d'en fabriquer une. De. Zéro.

Et quand je dis de zéro, c'est pas juste imprimer une coque en 3D. Non, non. Le gars a fait sa propre soupe chimique magnétique pour enduire un film plastique. Un grand malade.

Beaucoup de gens, quand ils veulent une disquette en 2026, vont sur eBay où ils achètent également une carte de transport taïwanaise qui y ressemble pour le style. Mais polymatt, lui, il voulait comprendre "comment ça marche vraiment" et surtout prouver qu'on pouvait le faire dans son garage.

Le résultat final : une disquette en aluminium brossé ( Source )

Première étape : le boîtier. Au lieu du plastique beige moche de notre enfance, il a sorti l'artillerie lourde avec une CNC Carvera Air pour usiner de l'aluminium. Résultat ? Une disquette qui pèse son poids et qui a un look absolument incroyable avec sa texture brossée. C'est un peu la Rolls de la disquette, le genre de truc qu'Apple aurait pu sortir à l'époque de l'iMac G3 (celui de 1998 qui avait justement abandonné le lecteur de disquette, ouvrant la voie à la fin du format).

Mais le vrai défi, c'est le disque magnétique à l'intérieur. C'est là que la vidéo se transforme en cours de chimie niveau Breaking Bad.

Car il a fallu créer une encre magnétique maison capable de stocker des 0 et des 1.

La recette ?

  • De l'oxyde de fer noir (la base magnétique)
  • Du PVA (comme liant)
  • Un peu d'alcool isopropylique (pour aider à la dispersion)
  • De la glycérine (pour la souplesse)
  • Et du Tween 20 (un tensioactif pour que ça s'étale bien)

Secouez le tout, et vous obtenez une pâte noire qui tâche probablement tout ce qu'elle touche.

Ensuite, il faut étaler ça sur un film plastique (PET) de manière parfaitement uniforme. Matt a visé une épaisseur de 5 à 6 microns. Il a utilisé une technique de pros avec une Meyer rod (une tige en métal entourée d'un fil très fin) pour racler l'excédent et obtenir une couche fine et régulière.

Évidemment, ça a raté plein de fois. L'encre qui s'écaille, le disque qui ondule comme une crêpe sous la chaleur, les trous mal alignés... Il a même dû improviser un traitement de surface à la flamme (pour activer la surface du polymère) pour que la chimie accroche enfin au plastique. C'est ça la vraie vie de maker : 90% d'échecs, 10% de gloire.

Mais le moment de vérité, c'est quand il l'a enfin insérée dans le lecteur. Avec un outil appelé Greaseweazle (qui permet de lire et écrire des données au niveau flux magnétique via USB), on voit l'écran s'illuminer. Des secteurs verts. Des données qui s'écrivent.

Ça marche.

Alors oui, c'est pas fiable à 100%, ça stocke environ 1,44 Mo (le standard HD de l'époque), et ça a coûté probablement plus cher en temps et matériaux qu'un SSD de 4 To. Mais voir quelqu'un recréer une technologie aussi complexe dans son garage avec des outils modernes, ça force le respect.

Et pour ceux qui se demandent "Pourquoi ?", la réponse est simple : Parce qu'on peut. Et parce que comprendre comment la magie opère, c'est quand même plus satisfaisant que de juste cliquer sur "Acheter" chez Amazon.

Bref, si vous avez une vingtaine de minutes, regardez la vidéo, rien que pour voir l'usinage de l'alu, c'est hypnotisant.

  •  

Linus Torvalds se met à la musique (et au vibe coding)

Il y a quelques semaines, je vous parlais de la vision très pragmatique de Linus Torvalds sur l'IA et le "vibe coding". Et bien figurez-vous que le créateur et mainteneur du noyau Linux ne fait pas que donner son avis, il met aussi les mains dans le cambouis (ou plutôt dans le code) avec un nouveau petit projet perso baptisé AudioNoise.

Alors calmez-vous tout de suite, il ne s'agit pas du prochain concurrent de Pro Tools ou d'Ableton Live. C'est un projet qu'il qualifie lui-même de "silly" (idiot), né de ses récentes expérimentations avec des pédales d'effets pour guitare. Après avoir joué avec le hardware et les circuits analogiques, Linus a décidé de voir ce que ça donnait côté numérique.

Le dépôt GitHub contient des implémentations basiques en C d'effets audio : délais, phasers, et de filtres IIR (Infinite Impulse Response)... Bref, de quoi simuler des effets sans prétention.

Ce qui est marrant, c'est l'approche car Linus explique clairement dans le README qu'il n'y a rien de révolutionnaire là-dedans en terme d'algo mais juste des boucles de délai et des filtres simples. C'est du "single sample in, single sample out", conçu pour apprendre les bases du traitement du signal (DSP).

Le projet inclut également un visualiseur en Python que Linus avoue avoir écrit en mode "vibe-coding". En gros, comme il ne maîtrise pas vraiment Python, il a utilisé l'outil Google Antigravity pour générer le code à sa place. C'est du "monkey-see-monkey-do" assumé, où il a supprimé l'intermédiaire (lui-même cherchant sur Google) pour aller directement au but.

Bref, c'est toujours marrant de voir qu'un des devs les plus influents de la planète continue de coder des trucs "juste pour le fun", sans se prendre la tête, et en utilisant les outils modernes comme un débutant curieux. Si vous voulez jeter un œil au code (ou l'utiliser pour vos propres bidouilles sonores), ça se passe sur GitHub .

Merci à Lorenper pour le partage !

Source

  •  

Test du Macchiatto Pro : un super planétarium HD pas cher pour la maison

– Article invité, rédigé par Vincent Lautier, contient des liens affiliés Amazon –

J'ai récemment eu l'occasion de prendre en main le projecteur Macchiatto Pro , un appareil compact conçu pour transformer l'ambiance d'une pièce en projetant un ciel étoilé au plafond. Amazon est inondé de gadgets lumineux souvent décevants, mais ce modèle a retenu mon attention par sa promesse d'une projection haute définition pour un tarif contenu autour de trente euros.

L'objectif est ici de proposer une véritable expérience de planétarium domestique plutôt qu'une simple veilleuse aux motifs flous, j’ai testé dans une chambre d’enfant, et c’est tout simplement génial.

La principale force de ce produit c’est son système optique. Contrairement aux appareils d'entrée de gamme qui projettent de simples points lumineux, le Macchiatto Pro utilise des disques de films interchangeables pour diffuser des images précises. C'est difficile à voir sur les photos car l'image semble un peu floue, mais en vrai, quand vous êtes dans la pièce pour de vrai, c'est vraiment très net et précis !

Le constructeur fournit treize disques différents dans la boîte, qui offrent une variété de scènes allant du système solaire complet à la Voie lactée, en passant par des images détaillées de la Terre ou de la Lune. La mise au point s'effectue manuellement via une molette située sur le dessus de l'appareil, ce qui permet d'obtenir une image nette quelle que soit la distance de projection, avec un rendu optimal.

Au niveau du fonctionnement, l'appareil intègre un moteur rotatif permettant de faire tourner l'image à 360 degrés pour simuler le mouvement céleste. Un point important pour ce type de produit est le niveau sonore, et ce modèle est complètement silencieux à l'usage. Le mécanisme de rotation ne génère pas de bruit parasite, ce qui permet de l'utiliser dans une chambre à coucher sans perturbation. Des fonctions de minuterie sont également présentes pour programmer une extinction automatique après une ou deux heures, le projecteur s'éteignant de lui-même après quatre heures par défaut pour économiser l'énergie.

D'un point de vue pratique, le Macchiatto Pro a une connectique moderne avec un port USB-C, ce qui simplifie son alimentation via un chargeur de smartphone classique ou une batterie externe pour le rendre portable. La surface de projection est super large et peut couvrir une grande partie d'un plafond standard, le constructeur annonçant une couverture allant jusqu'à 70 mètres carrés (mais je n’ai pas testé sur un plafond aussi grand, je n’habite pas dans le château de Versailles). Bref, c'est un produit techniquement abouti pour sa catégorie de prix, il offre une image de qualité et une simplicité d'utilisation qui conviendra aussi bien aux gamins qui kiffent l’astronomie qu’aux adultes qui cherchent une lumière d'ambiance relaxante.

Ce truc coûte 30 balles sur Amazon, vous pouvez le trouver ici avec 13 disques inclus.

Article invité publié par Vincent Lautier . Vous pouvez aussi faire un saut sur mon blog , ma page de recommandations Amazon , ou lire tous les tests que je publie dans la catégorie "Gadgets Tech" , comme cette liseuse Android de dingue ou ces AirTags pour Android !

  •  

Cloudflare vs Italie - Le bras de fer sur le Piracy Shield ne fait que commencer

Alors que l'Italie pensait avoir trouvé l'arme ultime contre le piratage avec son fameux "Piracy Shield", voici que voilà que Cloudflare vient de leur renvoyer une gifle mémorable. C'était prévisible et j'ai envie de dire tant mieux car je pense que la neutralité du net mérite mieux et je ne suis pas fan de l'idée de transformer des hébergeurs et autres prestataires techniques en garant de la moral a.k.a. en censeurs automatisés.

Matthew Prince, le patron de Cloudflare, n'a pas l'intention de se laisser faire ( Source )

Si vous vous demandez de quoi je parle, je vous propose de reprendre tout ça depuis le début. En effet, l'autorité italienne de régulation des communications (AGCOM) vient de coller une amende de 14,2 millions d'euros à Cloudflare. Pourquoi ? Hé bien tout simplement parce que l'entreprise refuse de se plier à un ordre de blocage DNS datant de février 2025 sur son service 1.1.1.1 pour filtrer les sites de streaming illégaux de la Serie A (Si vous ne connaissez pas la Serie A, c'est un championnat de foot à la con). Cette prune est quand même égale à 1% de son chiffre d'affaires annuel, bref Cloudflare est carrément dans la sauce.

Toujours pour ceux qui débarquent, le Piracy Shield est un système censé permettre aux ayants droit de soumettre des adresses IP et des noms de domaine à bloquer dans un délai de 30 minutes après notification. Sauf que dans la vraie vie, ça ne marche pas tout à fait comme ça. Matthew Prince, le patron de Cloudflare, n'a d'ailleurs pas mâché ses mots en affirmant que l'Italie tente d'imposer une véritable "censure globale" sans surveillance judiciaire ni transparence. Pour lui, c'est comme essayer d'arrêter l'eau avec une passoire tout en inondant les voisins.

Techniquement, Cloudflare explique qu'obliger d'opérer un blocage DNS/IP sur ses 200 milliards de requêtes quotidiennes, cela augmenterait significativement la latence pour les utilisateurs de ses résolveurs. Et surtout, le risque de surblocage est gigantesque. Rappelez-vous, en octobre 2024, ce magnifique système avait réussi l'exploit de bloquer Google Drive pour toute l'Italie pendant trois heures (et certains blocages partiels ont même persisté bien après). Gloups ! C'est ce genre de dérives qui inquiète, surtout quand on sait que le système a déjà fait désactiver plus de 65 000 domaines en deux ans, selon l'AGCOM.

Et je vous parle pas de coût humains et techniques que ça engendre pour les opérateurs comme Cloudflare.

La réponse de Matthew Prince est d'ailleurs assez radicale puisque Cloudflare envisage carrément de retirer tous ses serveurs des villes italiennes, de couper ses services de cybersécurité gratuits pour les utilisateurs locaux et même d'annuler son soutien pro bono pour les prochains Jeux olympiques de Milan-Cortina. Bye Bye l'investissement, basta la collaboration !

On se retrouve donc dans une situation où Cloudflare se voit contraint de choisir entre ses principes et le marché italien. Si vous suivez un peu l'actu, vous savez que les services DNS sont de plus en plus ciblés par des obligations de blocage, mais l'Italie semble vouloir aller plus loin que les autres.

Si la France a déjà ordonné à cinq gros fournisseurs de VPN de bloquer certains sites de streaming sportif, l'offensive italienne contre les infrastructures de base du web est un cran au-dessus. Heureusement, il existe encore des résistances techniques et ces protocoles ennemis de la censure comme le DoH ou l'ECH (Encrypted Client Hello) rendent la tâche plus complexe pour les autorités, même si cela n'empêchera jamais un blocage pur et dur par IP.

Bref, reste à savoir maintenant comment ceci sera réellement appliqué dans les mois qui viennent... En attendant, si vous utilisez Cloudflare en Italie (ou ailleurs), surveillez de près les évolutions de votre service car le bras de fer ne fait que commencer.

Source

  •  

En finir avec l'enshittification en légalisant le reverse-engineering

Bon, je vais être direct : le reverse-engineering devrait être légal, point barre. Et tant mieux si quelqu'un d'aussi influent que Cory Doctorow le gueule dans le Guardian !

Pour ceux qui débarquent, le reverse-engineering c'est le fait de désosser un logiciel ou un appareil pour comprendre comment il fonctionne. Pas pour le pirater, hein, mais pour réparer, améliorer ou simplement vérifier qu'on ne se fait pas arnaquer. Et c'est là que ça devient un peu compliqué, parce que dans plein de pays, c'est illégal.

Doctorow rattache ça au phénomène d'"enshittification" (oui, le terme est volontairement moche... On pourrait traduire ça par "l'emmerdification"). C'est ce phénomène bien pénible où les entreprises dégradent progressivement leurs produits pour vous forcer à payer plus ou à racheter du neuf. Votre imprimante qui refuse les cartouches compatibles ? Enshittification. Votre tracteur John Deere qui vous interdit de le réparer vous-même ? Enshittification. Les onduleurs solaires chinois avec des kill switches à distance ? Enshittification + un peu de parano ^^.

Le truc, c'est que les lois anti-contournement comme le DMCA américain protègent ces pratiques. Du coup, même si vous avez acheté un machin, vous n'avez pas vraiment le droit de regarder sous le capot.

Mais bonne nouvelle pour nous autres Européens, l'article 6 de la directive européenne sur les logiciels autorise la décompilation pour assurer l'interopérabilité. Si ça c'est pas une nouvelle preuve que l'Europe est supérieure aux Etats-Unis, j'sais pas ce que c'est ^^.

En France par exemple, l'article L. 122-6-1 du Code de la propriété intellectuelle va même plus loin puisqu'il est impossible pour un éditeur d'interdire contractuellement ce droit. Autrement dit, même si c'est écrit dans les CGU, c'est nul et non avenu.

Par contre, le Royaume-Uni post-Brexit, c'est une autre histoire mais Doctorow y voit plutôt une opportunité. En effet, comme le Royaume-Uni est libéré des contraintes de l'harmonisation européenne, le pays pourrait assouplir ses lois plus rapidement que l'UE et devenir un hub du reverse-engineering légal. À condition évidemment de ne pas céder aux lobbys tech américains qui poussent dans l'autre sens.

Alors certains d'entre vous pourraient se demander : Ça sert à quoi de pouvoir reverse-engineerer ses appareils ?

Hé bien, ça sert par exemple à découvrir que votre thermostat "intelligent" envoie vos données à des serveurs douteux. Ou à réparer votre tracteur sans attendre 3 semaines un technicien agréé qui vous fera payer une fortune un truc dérisoire. Ou encore à vérifier que l'onduleur solaire sur votre toit n'a pas une backdoor exploitable par n'importe qui. De plus, des outils comme ReverserAI rendent ce genre d'analyse de plus en plus accessible, même sans être un expert en assembleur. Et ça c'est cool !

Le combat de Doctorow, c'est donc de faire sauter ces verrous juridiques qui protègent l'obsolescence programmée au détriment des consommateurs. Et franchement, quand on voit l'état du marché tech actuel, c'est pas du luxe, je trouve.

Bref, si vous voulez comprendre pourquoi votre grille-pain connecté vous espionne, au moins en Europe, vous avez théoriquement le droit de le découvrir. C'est déjà ça. Force à nos amis anglais et américains qui sont encore plus maltraités par les sociétés qui verrouillent leurs appareils, que nous.

  •  

Gibberifier - L'outil qui rend votre texte invisible aux IA (mais pas aux humains)

Vous connaissez sans doute la stéganographie, l'art de planquer des messages secrets un peu partout, mais avez-vous déjà entendu parler de la stéganographie inversée ? Non ? Eh bien, laissez-moi vous présenter Gibberifier .

L'idée est géniale puisqu'il s'agit de rendre un texte totalement illisible pour une IA (ChatGPT, Claude, Gemini, et consorts) tout en le laissant parfaitement clair pour nous, pauvres humains. C'est un peu comme parler une langue que les machines ne comprennent pas.

Le secret de cette technique réside dans l'utilisation de caractères Unicode de largeur zéro (comme le fameux U+200B) qui sont des caractères qui existent informatiquement mais qui ne prennent aucune place à l'écran. Gibberifier en insère aléatoirement entre les lettres de votre texte. Pour vos yeux, "Bonjour" reste "Bonjour". Mais pour une IA, ça ressemble à un truc comme ça "B\u200Bo\u200Bn\u200Bj\u200Bo\u200Bu\u200Br" en indécodable.

Et voilà comme le tokenizer de l'IA (la partie qui découpe le texte en morceaux digestes) panique complètement. Lors de mes tests avec ChatGPT, celui-ci est à la ramasse, quand à Claude, pas moyen qu'il accepte le message, ça le fait bugger... c'est assez jouissif à voir.

L'outil a été développé par GeneploreAI et le code est dispo en open source sur GitHub (licence GPL-3.0) et c'est pas juste un script python obscur, ils ont sorti des extensions pour Chrome et Firefox , et même une version web pour tester rapidement. J'ai testé avec ChatGPT et il galère un peu..

Mais avant que vous ne partiez chiffrer tout votre blog, une petite mise en garde quand même : Ce n'est pas fait pour des romans entiers. L'auteur recommande de l'utiliser sur des passages courts (environ 500 caractères). C'est idéal pour protéger une "formule secrète", un prompt spécifique ou un paragraphe clé que vous ne voulez pas voir aspiré par les scrapers d'entraînement.

Certains se demandent peut-être si c'est dangereux. En soi, non, ce sont juste des caractères standard mais c'est une belle démonstration de la fragilité actuelle des LLM. Un simple grain de sable Unicode suffit à enrayer la machine la plus sophistiquée du monde.

Bref, si vous voulez troller un peu les bots ou protéger un snippet de code, c'est l'outil qu'il vous faut.

  •  

Palantir - L'histoire secrète de l'œil numérique qui voit tout

Cet article fait partie de ma série spéciale hackers . Bonne lecture !

Le 7 août 2019, dans le Mississippi, des centaines d'enfants rentrent de leur premier jour d'école. Cartables sur le dos, ils s'attendent à retrouver leurs parents pour raconter leur journée.

Mais à la place, ils découvrent des maisons vides ou des usines encerclées par des agents fédéraux. Ce jour-là, l'ICE (les services d'immigration américains) mène la plus grande opération de l'histoire du pays en un seul État : 680 personnes sont arrêtées, menottées et embarquées dans des camionnettes blanches.

Source

L'enquête qui a mené à ces rafles n'a pas été montée "à l’ancienne" sur un tableau en liège avec des punaises et de la ficelle rouge. Dans des affidavits et les documents obtenus via des demandes FOIA, on voit apparaître un nom de module qui revient comme un sortilège : FALCON Tipline. Un outil Palantir vendu à la branche Homeland Security Investigations (HSI) et utilisé pour centraliser, recouper et exploiter des signalements, des identités, des liens, des infos de terrain… jusqu’à planifier des actions coordonnées comme celle du Mississippi.

Le plus "magique" (façon Mordor), c'est que tout ça s'appuie sur un contrat très concret, très administratif, qui décrit FALCON comme une plateforme de recherche fédérée et d’analyse, capable de faire parler ensemble des bases de données qui n'étaient pas censées se rencontrer. Voilà. Rien de secret... Juste le genre de PDF qui sent la paperasse… mais qui peut briser des vies.

Mais si cette logistique monstrueuse a pu être déployée avec une telle précision chirurgicale, c'est grâce à une technologie dont vous n'avez peut-être jamais entendu parler, mais qui sait déjà probablement tout de vous.

Son nom ? Palantir.

Pour comprendre comment une startup de la Silicon Valley est devenue l'œil de Sauron qui surveille le monde, il faut remonter au début des années 2000. On est juste après le 11 septembre. L'Amérique est en état de choc et ses agences de renseignement cherchent désespérément un moyen de "connecter les points" (connect the dots comme ils disent...) pour prévenir la prochaine attaque.

Le Pentagone essaie bien de lancer un programme de surveillance totale appelé Total Information Awareness, mais le projet est jugé trop orwellien et se fait descendre par l'opinion publique en 2003. C'est exactement à ce moment-là que Peter Thiel décide de fonder Palantir Technologies avec Stephen Cohen, Joe Lonsdale, Nathan Gettings et Alex Karp.

Ce qui est "marrant", c’est qu’on a enterré le programme (trop visible, trop caricatural), mais pas l’idée. Palantir arrive pile au bon moment : la même promesse, mais emballée dans un joli paquet cadeau d'outil d’analyse, vendue par une boîte privée, et surtout, développée directement avec les gens qui allaient s’en servir.

La surveillance version startup, avec des NDA, des badges et des salles sans fenêtre était née...

Peter Thiel, c'est un personnage à part dans la tech. Co-fondateur de PayPal, premier investisseur de Facebook, libertarien pur jus et fan absolu de J.R.R. Tolkien. Le nom "Palantir" vient d'ailleurs du Seigneur des Anneaux puisque ce sont ces pierres de vision qui permettent de voir à travers le temps et l'espace.

Le truc, c'est que chez PayPal, Thiel et son équipe avaient déjà développé des algorithmes de détection de fraude super performants baptisés "Igor". C'est pour cela que Thiel s'est dit "Hé, et si on appliquait ces mêmes méthodes de traque financière à la lutte antiterroriste ?"

Peter Thiel ( source )

Le problème, c'est qu'en 2004, personne à la Silicon Valley ne veut toucher à la défense. Les investisseurs flippent, du coup, Thiel et son fonds d'investissement posent environ 30 millions de dollars pour couvrir les premiers coûts et vont chercher un allié improbable : In-Q-Tel, le fonds de capital-risque à but non lucratif soutenu par la CIA.

In-Q-Tel injecte environ 2 millions de dollars et au delà de l'argent, c'est une surtout une validation capitale pour la société. Et c'est ainsi que durant trois ans, les ingénieurs de Palantir vont bosser main dans la main avec les analystes du renseignement pour construire leur premier logiciel : Gotham.

Et quand je dis "bosser main dans la main", c’est pas une image. Leur délire, c’était d’envoyer des ingénieurs directement chez les clients, dans les agences, parfois sur site sensible, pour modeler l’outil à la demande. Pas une ESN, hein… plutôt une greffe. Tu poses le logiciel, tu poses les devs, et tu laisses la créature grandir dans l’ombre.

Pour diriger cette boîte de surveillance, Thiel choisit Alex Karp. Un mec encore plus atypique que lui. Karp est un philosophe, titulaire d'un doctorat en théorie sociale de l'université de Francfort, dyslexique, qui ne sait pas conduire et qui passe cinq heures par jour à faire du ski de fond ou du Qigong. Il vit dans une baraque perdue dans le New Hampshire et se décrit comme un "gauchiste fou", alors que Thiel est un "dingue de droite". Ce duo improbable va pourtant créer l'entreprise la plus puissante et la plus secrète de la planète.

Alex Karp ( source )

Le fonctionnement de Gotham est simple sur le papier, mais terrifiant en pratique. Pensez à un aspirateur géant capable d'ingérer n'importe quel type de donnée : Imagerie satellite, rapports d'interrogatoires, conversations sur les réseaux sociaux, fichiers fiscaux, plaques d'immatriculation, relevés bancaires. Le logiciel fusionne tout ça pour créer un "jumeau numérique" du monde réel. Si vous avez un compte chez Ladar Levison (le fondateur de Lavabit qui a hébergé Snowden) ou que vous avez été mentionné dans une écoute de la NSA, Palantir peut recréer tout votre réseau social en quelques clics.

C'est d'ailleurs avec les révélations d'Edward Snowden que le monde a commencé à entrevoir l'ampleur du truc. En 2017, des documents montrent que Palantir proposait des outils comme "XKEYSCORE Helper" pour faciliter l'analyse des données capturées par la NSA. Le logiciel permettait aux agents de naviguer dans des masses de données privées avec une fluidité déconcertante. Même si Alex Karp jure sur tous les tons qu'il protège les libertés civiles, la réalité des contrats raconte une autre histoire.

Et ce n’est pas qu’un délire "NSA / USA". Dans la même veine, des docs évoquent aussi Kite, un système custom pour le GCHQ (les espions britanniques), avec des champs et des imports extensibles pour avaler des formats de données bien tordus. Palantir, évidemment, a tenté de calmer le jeu ensuite en expliquant que "XKEYSCORE helper" n’était qu’un module périphérique et limité, pas un accès à la matrice complète…

Mais l’histoire "secrète" de Palantir a aussi un épisode qui sent la naphtaline et le scandale. En effet, en 2010-2011, des emails fuités (merci Anonymous) ont montré qu'une dream team HBGary / Berico / Palantir avait participé à la préparation d’un plan de riposte contre WikiLeaks et ses soutiens. Dans le package, on parlait de méthodes sales, de pression, et même d’idées de désinformation. Résultat, Palantir a publiquement présenté ses excuses et a coupé les ponts avec HBGary.

Je vous parle quand même d'une boîte qui a récupéré le contrat Maven Smart System (le fameux Project Maven) quand Google l'a lâché suite à la révolte de ses employés. Maven utilise l'IA pour aider les analystes militaires à identifier des cibles au milieu d'un déluge de données de surveillance.

Et aujourd'hui, Palantir est partout.

En Ukraine, Alex Karp a été le premier PDG occidental à rencontrer Zelensky après l'invasion russe de 2022. Leurs logiciels servent à faire de la fusion de données à grande vitesse (drones, satellites, sources ouvertes) pour accélérer la décision militaire. Et ça ne s'arrête pas là puisqu'en juillet 2025, l'armée américaine a signé un accord-cadre monumental jusqu'à 10 milliards de dollars sur 10 ans pour consolider et simplifier l'achat des logiciels Palantir.

Mais Palantir ne s'arrête pas aux zones de guerre. L'entreprise s'infiltre dans nos services publics. Au Royaume-Uni, un consortium mené par Palantir a décroché un contrat de 330 millions de livres pour gérer la Federated Data Platform du NHS (le système de santé national). En septembre 2025, ils ont même remis ça avec un partenariat défense annoncé par le gouvernement britannique, censé débloquer jusqu'à 1,5 milliard de livres d'investissements et faire du Royaume-Uni leur QG européen défense. En France, la DGSI a longtemps utilisé Palantir avant d'essayer de construire sa propre alternative pour retrouver sa souveraineté numérique… sauf que fin 2025, le contrat a encore été prolongé "temporairement", en attendant que l’outil souverain arrive vraiment.

Et ce qui est vraiment inquiétant avec Palantir, c'est ce qu'ils proposent en matière de "police prédictive". Par exemple, à Los Angeles ou à la Nouvelle-Orléans, leurs algorithmes ont été utilisés pour tenter d'identifier des zones ou des individus à risque. En gros, le logiciel décide si vous avez le profil d'un futur délinquant en analysant vos liens sociaux et vos antécédents. À la Nouvelle-Orléans, le programme a même tourné pendant des années dans une discrétion quasi totale, sans que le conseil municipal ne soit vraiment au courant, jusqu'à ce que la presse sorte l'affaire. Des audits ont d'ailleurs montré que ces systèmes pouvaient renforcer les préjugés et cibler injustement certaines communautés. Tu m'étonnes...

Exemple de dashboard de police prédictive ( source )

Aujourd'hui, Palantir est cotée en bourse et sa valorisation explose littéralement (on parle d'environ 430 milliards de dollars début 2026). Alex Karp a réussi son pari à savoir rendre la surveillance de masse extrêmement rentable. L'entreprise vise d'ailleurs un chiffre d'affaires annuel autour de 4,4 milliards de dollars sur 2025, porté par sa nouvelle plateforme d'IA (AIP) et ses "agents" autonomes capables de structurer n'importe quelle base de données en un clin d'œil. Mais comme dans Tolkien, les palantír sont des outils dangereux. Celui qui les utilise peut être lui-même observé et corrompu.

Alors, faut-il avoir peur de Palantir ? Clairement oui !

Quand on voit comment Snowden explique la surveillance aujourd'hui, on comprend que Palantir est l'outil qui rend l'espionnage d'État accessible à n'importe quel analyste, sans qu'il ait besoin d'être un génie du code. C'est la démocratisation d'Orwell à grande échelle.

Bref, la prochaine fois que vous entendrez parler d'une startup qui veut "aider les gouvernements à mieux gérer leurs données", rappelez-vous de l'histoire du Mississippi en 2019 et de Palantir car derrière les beaux discours sur la sécurité, il y a souvent des algorithmes invisibles et des pierres de vision qui ne dorment jamais.

Sources :

  •  
❌