Si comme moi, vous êtes du genre à passer des heures sur GitHub pour dénicher la perle rare, genre un nouveau framework à la mode ou l'outil CLI qui va vous sauver la vie, j'ai trouvé un truc qui va soit booster votre productivité, soit ruiner votre temps libre.
Ça s'appelle Repomance et c'est une application iOS qui transforme la découverte de dépôts GitHub en une expérience... disons, plus familière.
J'vais pas y aller par 4 chemins, en fait c'est le Tinder du code. Vous avez une pile de cartes représentant des projets open source, et vous swipez. À droite, vous mettez une "star" au dépôt (ça se synchronise direct avec votre compte GitHub via OAuth), et à gauche, vous passez votre chemin.
L'appli vous propose deux modes : les projets "Trending" pour voir ce qui excite la communauté en ce moment (par jour, semaine ou mois), et un mode "Curated" qui vous prépare des petits lots personnalisés selon vos langages de prédilection et vos centres d'intérêt (Web, Machine Learning, DevOps, etc.).
C'est assez génial pour faire sa veille technique dans le métro ou entre deux réunions. Les fiches sont également super complètes avec description, stats, répartition des langages, preview du README et même la licence du projet.
Comme ça, pas besoin de sortir de l'appli pour savoir si le projet est maintenu ou s'il correspond à vos besoins. Et pour ceux qui se posent la question de la vie privée,
l'appli est open source
et ne demande que le strict minimum de permissions GitHub pour pouvoir ajouter les étoiles à votre profil.
Voilà, c'est gratuit, c'est propre, et c'est totalement addictif quand on aime explorer la jungle de l'open source !
Bon, vous connaissez tous Google Traduction, cette application qu'on installe par réflexe dès qu'on pose le pied dans un pays étranger (ou quand on essaie de comprendre une notice de montage suédoise).
Hé bien, il semblerait qu'OpenAI ait décidé de venir sérieusement grattouiller dans les plates-bandes de Google avec le lancement de ChatGPT Translate, un outil de traduction dédié qui ne fait pas les choses à moitié.
On va pas se mentir, la traduction automatique, c'est souvent la foire aux saucisses dès qu'on sort des sentiers battus... On a tous en tête ces traductions pourries qui transforment un compliment en insulte diplomatique. C'est d'ailleurs pour ça que certains utilisent des extensions comme
YouTube Anti-Translate
pour éviter les massacres linguistiques sur nos vidéos préférées.
Mais là, ChatGPT Translate essaie d'apporter un truc en plus qui est : ✨ la personnalisation ✨, lol. Grâce à ça, au-delà de simplement convertir des mots, l'outil vous propose, d'un simple clic, de reformuler le résultat.
Vous voulez que ça sonne plus "business-formal" ? Hop, c'est fait. Vous préférez un ton simplifié pour expliquer un truc à un gamin de 5 ans ? Nickel, l'IA s'adapte. C'est ce côté "malléable" qui manque cruellement aux solutions classiques... Par exemple, moi dans Deepl, j'ai pas ça... Et comme c'est difficile de jauger si un texte dans une langue étrangère est trop familier ou pas, çe me bloque un peu, c'est vrai.
L'interface minimaliste de ChatGPT Translate qui mise tout sur la personnalisation (
Source
)
Pour le moment, l'interface est ultra minimaliste (deux champs de texte, paf, on ne se prend pas la tête) et supporte plus de 50 langues. On peut taper son texte, causer dans le micro, et même si l'option d'upload d'images est mentionnée, elle semble encore un peu timide sur desktop. On est donc encore très loin des usines à gaz comme
Comic Translate
qui traduisent carrément vos mangas en temps réel avec de l'IA, mais c'est un bon début.
Et voilà comment OpenAI mise une fois encore tout sur son "muscle" cloud magique pour offrir des traductions qui ne ressemblent pas à des phrases sorties d'un vieux dictionnaire poussiéreux. C'est un peu le même combat qu'on a vu à l'époque avec
le traducteur de Microsoft
quand tout le monde essayait de détrôner le roi Google. Après c'est bien pour nous, ça nous fait des trucs nouveaux à tester et peut-être que ça nous plaira.
En tout cas, si vous voulez tester ça,
c'est déjà dispo sur le web
et ça devrait s'intégrer de plus en plus dans nos smartphones à l'avenir, j'imagine...
Mais gardez quand même un œil sur le résultat au cas où l'IA déciderait de traduire un "Cordialement," de fin de mail par "Die motherfucker,"... On n'est jamais trop prudent !
Si vous utilisez Claude Code (l'outil CLI d'Anthropic qui déboite), vous savez que c'est super puissant pour coder, auditer ou refactoriser des trucs en un clin d'œil. Mais le petit souci, c'est qu'il faut tout le temps être derrière son terminal pour lui dire quoi faire.
Développé par un certain jshchnz, ce petit plugin permet tout simplement de programmer Claude afin de pouvoir lui balancer des ordres du genre "fais-moi une review de sécurité tous les jours à 9h" ou "check les dépendances chaque mardi après-midi", et de le laisser bosser tout seul dans son coin. Et ce que j'aime avec ces outils, c'est qu'on lui parle en langage naturel... Pas besoin de s'arracher les cheveux avec la syntaxe obscure des cron jobs. Vous lui dites "Tous les jours de la semaine à 10h du mat" et il comprend direct.
Ce scheduler s'appuie sur les planificateurs natifs de votre système d'exploitation tels que launchd sur macOS, crontab sur Linux et le planificateur de tâches sur Windows. C'est robuste, ça survit aux redémarrages et c'est parfaitement intégré et pour ceux qui s'inquiètent de devoir valider chaque modification à la main, sachez que l'outil gère le mode autonome.
En gros, il utilise le flag --dangerously-skip-permissions de Claude Code pour lui permettre d'éditer des fichiers ou de lancer des commandes sans vous demander la permission à chaque ligne. Forcément, il faut avoir confiance dans vos prompts, mais pour des tâches de maintenance récurrentes, c'est un gain de temps monumental.
Une fois installé, vous aurez alors accès à une panoplie de commandes slash comme /schedule-add ou /schedule-list pour gérer tout ça directement depuis l'interface de Claude. Et bien sûr, tout est loggé proprement dans des fichiers texte pour que vous puissiez vérifier au petit matin ce que l'IA a glandé pendant que vous étiez dans les bras de Morphée.
Quel grand philosophe du XXIe siècle considère que l'identité personnelle est le dernier rempart contre les algos ?
Hé oui, il s'agit bien de
Luciano Floridi
, qui défend depuis le milieu des années 2000 le concept de vie privée informationnelle. Pour lui, la vie privée n'est pas une question de secret, mais un droit fondamental à l'immunité personnelle contre les altérations non désirées de l'identité, qu'elles soient actives (vol, clonage, manipulation de données) ou passives (imposition d'informations que l'on n'a jamais choisies).
Autrement dit, notre identité n'est pas un stock de données exploitables, mais une entité informationnelle qui mérite une protection en tant que telle.
Et cette idée vient de trouver une incarnation très concrète à Hollywood.
Matthew McConaughey
vient en effet de déposer plusieurs marques couvrant son image, sa voix et même son légendaire "Alright, alright, alright". L'objectif affiché c'est de créer un périmètre juridique pour empêcher l'utilisation de son identité par des systèmes d'IA sans son consentement.
Sur le papier, ça ressemble à un coup de maître mais dans les faits, c'est surtout le symptôme d'une industrie qui panique.
Car une marque ne protège pas une personne, elle protège un signe distinctif dans un cadre commercial. Autrement dit, elle fonctionne très bien pour attaquer des usages visibles, monétisés, centralisés, genre typiquement, des pubs, des vidéos sponsorisées ou des produits qui exploiteraient l'image ou la voix de McConaughey sans autorisation.
En revanche, les outils de
face-swapping
ou de synthèse vocale se foutent royalement des dépôts de marque. Un type qui fait tourner
FaceFusion
, Roop ou un modèle open source sur un serveur anonyme ne va pas vérifier si un sourire, une intonation ou une phrase d'accroche sont enregistrés à l'USPTO (C'est l'INPI des USA).
Alors oui, c'est vrai, cette stratégie peut permettre de nettoyer les grandes plateformes comme YouTube, Instagram ou TikTok à coups de demandes de retrait... Mais pour le reste du web, les barrières juridiques sont contournables en deux clics par des modèles décentralisés qui n'ont ni frontières ni service juridique.
Heureusement, pendant ce temps, le cadre légal évolue quand même un peu.
En Europe, l'
AI Act
impose des obligations de transparence pour les contenus générés ou manipulés par IA, notamment les deepfakes, en exigeant que leur nature artificielle soit clairement signalée dans de nombreux cas. Ce n'est donc pas une interdiction générale, puisqu'on passe du "on peut le faire" au "on doit le dire", mais c'est déjà pas mal.
Et en France, la
loi SREN
est également venue renforcer l'arsenal pénal, notamment contre les deepfakes non consensuels, en particulier lorsqu'ils portent atteinte à la dignité ou ont une dimension sexuelle.
Maintenant aux États-Unis, il y a le projet de loi
NO FAKES Act
proposé au Congrès qui vise à donner aux individus un droit fédéral clair pour contrôler l'utilisation de répliques numériques non autorisées de leur voix ou de leur image. Contrairement aux dépôts de marque, ce texte cherche donc à créer une base juridique uniforme pour réclamer la suppression ou l'interdiction d'un deepfake non consenti, avec heureusement, des exceptions pour les œuvres protégées comme les documentaires, les commentaires ou la satire.
Cependant, comme je le souligne dans mon article à ce sujet, le texte tel qu’il est rédigé pose des problèmes sérieux pour l’écosystème open source et pourrait imposer des mécanismes de "notice and stay down" (retrait permanent) sans protections claires contre les erreurs ou les abus, ce qui pourrait refroidir fortement l’innovation dans les outils d’IA générative.
Le problème reste donc identique... même avec des lois comme celle-ci ou la loi
TAKE IT DOWN Act
qui criminalise certaines formes de deepfakes non désirés, les cadres juridiques peinent à suivre la vitesse d’évolution des modèles et des usages. Et voilà comment on se retrouve avec un McConaughey qui tente de sécuriser son périmètre avec les outils qu'il a sous la main.
C'est plutôt rationnel comme approche, mais c'est surtout un aveu d'impuissance, car protéger une voix ou un visage aujourd'hui avec le droit des marques ou du rafistolage de petits bouts de lois, c'est comme essayer de vider l'océan avec une petite cuillère en argent gravée à son nom.
Du coup, quelle serait la vraie solution ?
Hé bien peut-être arrêter de croire que le droit d'auteur et les bricolages juridiques du XXe siècle peuvent faire le job au XXIe. Comme le défend Floridi, il faudrait un cadre global qui traite l'identité personnelle comme une donnée inaliénable, protégée par un véritable droit à la vie privée informationnelle, et non comme une marque de sac à main de luxe qu'on dépose à l'INPI ou à l'USPTO.
Bref, Matthew essaie de poser une clôture, mais l'IA a déjà sauté par-dessus.
A ce train là, je ne donne pas cher du futur de notre propre visage et de notre propre voix.
J'sais pas si vous l'avez senti mais Google est peut-être bien en train de gagner la course à l'IA non pas par son génie technique pur, mais par un bon gros hold-up sur nos infrastructures et nos vies privées.
C'est vrai que d'après pas mal de spécialistes IA, Gemini serait désormais le modèle le plus performant du marché. Super. Mais est ce que vous savez pourquoi il est en train de gagner ?
Hé bien parce que Google possède "tout le reste". Contrairement à OpenAI qui doit quémander pour choper des utilisateurs sur son application, l'IA de Mountain View s'installe de force partout où vous êtes déjà. Dans Android, dans Chrome, et même bientôt au cœur de votre iPhone via une intégration avec Siri. C'est la stratégie Internet Explorer des années 90, mais version 2026. Brrrr…
Alors oui c'est pratique d'avoir une IA qui connaît déjà vos mails et vos photos... Sauf que non. Car Gemini utilise nos données pour absolument tout... Sous couvert de "Personal Intelligence", l'outil se connecte à vos recherches, votre historique YouTube, vos documents et vos photos. Mais pas d'inquiétude, c'est pour votre bien, évidemment. Ahahaha !
Après si vous croyez que ce pouvoir ne sera pas utilisé pour verrouiller encore plus le marché, c'est que vous avez loupé quelques épisodes. J'en parlais déjà avec
l'intégration forcée de l'IA dans vos apps Android
, Google change les règles du jeu en plein milieu de la partie. On se retrouve donc face à un monopole full-stack, des puces TPU maison jusqu'à l'écran de votre smartphone.
Et pendant que la Chine
sécurise sa propre souveraineté cyber
en virant le matos occidental, nous, on continue d'ouvrir grand la porte.... Les amis, si demain Google décide de changer ses CGU (encore) ou de monétiser votre "intelligence personnelle", vous ferez quoi ?
Bref, le géant de la recherche avance ses pions et étouffe peu à peu la concurrence avant même qu'elle puisse respirer. Notez vous ça sur un post-it afin de le relire régulièrement : Plus une IA est "intégrée", plus elle est intrusive. Donc si vous voulez vraiment garder le contrôle, il va falloir commencer à regarder du côté des modèles locaux et des alternatives qui ne demandent pas les clés de votre maison pour fonctionner.
La nouvelle est tombée hier soir et elle fait boum boum boum dans le monde feutré de la tech... En effet, Pékin a officiellement demandé aux entreprises chinoises de mettre à la porte les logiciels de cybersécurité américains et israéliens.
C'était prévisible et quand j'ai lu ça, je me suis dit, tant mieux pour eux !
Concrètement, cette annonce, ça veut dire que des géants comme Broadcom, VMware, Palo Alto Networks, Fortinet ou encore l'israélien Check Point sont désormais persona non grata dans les systèmes d'information de l'Empire du Milieu.
La raison officielle, c'est la sécurité nationale comme d'hab. Mais aussi parce que la Chine en a marre de dépendre de technologies qu'elle ne contrôle pas (et qui pourraient bien cacher deux-trois mouchards de la NSA, on ne sait jamais ^^).
Alors vous allez me dire "Oulala, les méchants chinois qui se ferment au monde". Sauf que non... en réalité, ils appliquent juste une stratégie de souveraineté technologique sans concession. Et en remplaçant le matos étranager par du matos local, ils commencent le grand ménage.
Et pendant ce temps là en Europe, on continue d'installer joyeusement des boîtes noires américaines au cœur de nos infrastructures critiques, en priant très fort pour que l'Oncle Sam soit gentil avec nous. Yoohoo !
J'en parlais déjà à l'époque de
l'affaire Snowden
ou plus récemment avec les backdoors découvertes un peu partout mais la dépendance technologique, c'est évidemment un risque de sécurité béant. Pire, si demain Washington décide de "couper le robinet" ou d'exploiter une porte dérobée, on est, passez-moi l'expression, dans la merde.
La Chine l'a compris et investit donc massivement dans ses propres solutions, comme avec
l'architecture RISC-V
pour s'affranchir d'Intel et AMD. C'est une démarche cohérente et c'est même assez fendard quand on connaît l'histoire des groupes comme
APT1
qui ont pillé la propriété intellectuelle occidentale pendant des années.
Maintenant qu'ils ont un bon niveau, ils ferment la porte...
Du coup, sa fé réchéflir car est-ce qu'on ne devrait pas, nous aussi, arrêter de faire les vierges effarouchées et commencer à construire sérieusement notre autonomie ?
Il parait que c'est en cours... moi j'attends de voir.
Bref, la Chine avance ses pions et sécurise son périmètre et nous, baaah, j'sais pas... On remue nos petits bras en l'air en disant des choses au pif.
Semaine de merde hein ? On nous promettait le futur, les mains dans les poches et le regard dans le vide, et là, patatras ! Mercedes vient de décider de mettre un gros coup de frein sur son fameux "Drive Pilot" de niveau 3.
Pour ceux qui ne suivent pas tout ce bazar autour de la conduite autonome, sachez que le Niveau 3 (ou "conduite automatisée conditionnelle" pour les intimes), c’était la promesse de pouvoir lâcher le volant et SURTOUT de ne plus regarder la route quand on est coincé dans les bouchons sur l’autoroute. En Allemagne, Mercedes avait même réussi à faire homologuer le machin jusqu'à 95 km/h, ce qui en faisait le système certifié le plus rapide du monde.
C'est vrai que contrairement au Niveau 2 où vous deviez rester au taquet, le Niveau 3 permet théoriquement de détourner les yeux de la route, même si vous deviez quand même rester capable de reprendre les commandes en quelques secondes si la voiture panique.
Moi qui me voyais déjà en train de déplier mon journal papier (oui, je sais, je suis vintage), de faire une petite partie de Uno avec mon passager imaginaire ou même de me lancer dans une session intensive de blogging sur le grand écran du tableau de bord... Et bien c’est râpé. On va devoir continuer à fixer le pare-choc de la Renault Clio de devant comme des demeurés.
Officiellement, Mercedes nous explique que la demande est "modérée" et que les coûts de développement sont très couteux... en gros, ça coûte un bras à concevoir et personne n'a envie de payer le prix d'un petit appartement pour avoir le droit de lire ses mails en roulant à 60 km/h. La nouvelle Classe S, qui devait être le fer de lance de ce machin, sortira donc fin janvier sans cette option. Pffff.
Et ne me parlez pas de Tesla ! Parce que là, on touche le fond. C'est quand même un constructeur qui promet du niveau 5 (le truc où la bagnole vient vous chercher toute seule pendant que vous dormez) depuis littéralement dix ans pour au final propose un système "Full Self-Driving" toujours à la ramasse et nécessitant que vous gardiez les mains sur le volant sous peine de finir dans un mur. Clairement, Tesla c'est déjà pas ouf au niveau des finitions mais alors quand on commence à parler des promesses non tenues d’Elon, y'a de quoi finir en PLS.
Mais bon, ne désespérez pas totalement car si vous avez une bagnole récente (genre une Ioniq 5 ou une EV6), vous avez déjà accès à un Niveau 2 qui tient la route et qui vous soulage bien sur les longs trajets. Et pour ceux qui traînent encore de vieilles casseroles sans cerveau électronique, il existe une solution qui s'appelle
OpenPilot
avec le hardware de chez
Comma.ai
.
Si la législation dans votre pays l'autorise, vous installez ce petit bazar sur votre pare-brise, vous le branchez sur le bus CAN de votre voiture, et hop, vous avez un système de conduite autonome qui envoie bien plus du bois que la plupart des options constructeurs hors de prix. George Hotz (le génie derrière le hack de l'iPhone et de la PS3) a vraiment créé un truc ouvert, communautaire, et qui fonctionne vraiment bien sur des centaines de modèles...
Bref, le futur où on pourra se faire une raclette au volant n'est pas encore gagné, mais on s'en rapproche doucement par les chemins de traverse du logiciel libre.
En attendant, gardez quand même un œil sur la route et les mains sur le volant, ça évitera de froisser de la tôle pour une notification TikTok de travers. Et comme d'hab, mon meilleur conseil en termes de sécurité routière c'est méfiez-vous des semeurs de mort qui roulent en Volkswagen ^^ !
Il semblerait que l'intelligence artificielle ait fait suffisamment de progrès pour pourvoir assister à terme nos médecins débordés et en sous-nombre... C'est vrai que je vous parle souvent ici
de comment les technos peuvent faire évoluer la médecine
, mais là Google vient de passer un nouveau cap avec sa collection HAI-DEF (pour Health AI Developer Foundations, oui ils adorent les acronymes de barbares, je sais..).
Et là dedans, on trouve un gros morceau baptisé MedGemma 1.5. Si la version précédente gérait déjà les radios 2D classiques, cette mise à jour s'attaque maintenant à la "haute dimension". En gros, le modèle peut maintenant analyser des volumes 3D issus de scanners (CT) ou d'IRM, et même des coupes d'histopathologie (l'étude des tissus biologiques).
Pas mal hein ?
L'idée n'est pas de remplacer le radiologue (pas encore... brrr), mais de lui servir d'assistant survitaminé pour repérer des anomalies ou localiser précisément des structures anatomiques. Ainsi, sur les tests de Google, MedGemma 1.5 améliore la précision de 14 % sur les IRM par rapport à la V1. C'est un sacré gain qui permet d'avoir des diagnostics plus justes et plus rapides.
Mais ce n'est pas tout puisque Google a aussi dégainé MedASR, un modèle de reconnaissance vocale (Speech-to-Text) spécialement entraîné pour la dictée médicale. Parce que bon, on sait tous que le vocabulaire d'un toubib, c'est un peu une langue étrangère pour une IA classique comme Whisper. Grâce à ça, MedASR affiche 58 % d'erreurs en moins sur les comptes-rendus de radios pulmonaires, soit de quoi faire gagner un temps précieux aux praticiens qui passent souvent des heures à saisir leurs notes.
D'ailleurs, si vous vous souvenez de
mon article sur l'ordinateur plus efficace que les médecins
, on y est presque ! Sauf que là, l'approche est plus collaborative. Les modèles sont d'ailleurs disponibles en "open" (enfin, avec les licences Google quoi) sur Hugging Face pour que les chercheurs et les boites de santé puissent bidouiller dessus.
Alors bien sûr, faut toujours rester prudent et Google précise bien que ce sont des outils de recherche et pas des dispositifs médicaux certifiés pour poser un diagnostic tout seuls. Je me souviens bien de
Google Health
et des questions sur la vie privée que ça soulevait à l'époque, mais techniquement, ça déchire.
Voilà, si ça vous intéresse, je vous laisse regarder
leurs explications
et vous faire votre propre avis sur la question... Maintenant, est-ce que vous seriez prêts à confier votre prochaine analyse à une IA (assistée par un humain, quand même) ?
FLASH SPÉCIAL : Un ado de 18 ans vient de cracker la sécurité du Pentagone américain. Ah non pardon, c'est pas une news, c'est de l'histoire ancienne. Mais franchement, quelle histoire ! Ehud Tenenbaum, alias The Analyzer, a réussi ce que bien des services secrets n'osaient même pas rêver : infiltrer les réseaux non classifiés du Département de la Défense américain depuis sa chambre d'adolescent à Hod HaSharon.
Vous savez ce qui m'a plu dans cette histoire ? C'est qu'à l'époque, en 1998, j'étais moi-même en train de bidouiller mes premiers scripts sur mon Pentium 200 MHz, et pendant que je galérais à faire fonctionner tout ça, ce gamin faisait trembler l'oncle Sam. En plus, en février 1998, les USA sont en pleine opération Desert Fox contre l'Irak alors quand le DoD a détecté les intrusions, la première réaction a été la panique... et si c'était Saddam Hussein qui contre-attaquait ? Bah non, c'était juste un ado avec son clavier.
Mais alors qui était ce gamin ?
Ehud "Udi" Tenenbaum naît le 29 août 1979 à Hod HaSharon, une petite ville tranquille d'Israël. Rien ne prédestinait ce môme à devenir l'un des hackers les plus célèbres de la planète. D'ailleurs, il souffrait de dyslexie, un handicap qui aurait pu le freiner, sauf qu'Ehud avait un truc en plus : des capacités dingues en math et en sciences. À 15 ans, il s'auto-forme au hacking armé de sa curiosité, et une connexion internet.
À 18 ans, Ehud fait ensuite son service militaire obligatoire dans Tsahal. Mais bon, l'armée et lui, ça fait pas bon ménage. Suite à un accident de voiture, il est libéré de ses obligations militaires. Et c'est là que tout va basculer.
Car Ehud ne travaille pas seul. Il monte une petite équipe avec d'autres hackers : deux adolescents en Californie (connus sous les pseudos Makaveli et Stimpy) et possiblement d'autres contacts en Israël. Tenenbaum joue le rôle de mentor technique, le cerveau qui orchestre l'opération et petit détail qui tue : Solar Sunrise, c'est pas le nom que le groupe s'est donné mais le nom de code que les autorités ont attribué à l'enquête. Solar comme Solaris, l'OS qu'ils ont hacké.
Pendant que le monde entier suit l'affaire Monica Lewinsky, pendant que les États-Unis bombardent l'Irak, Ehud et ses complices préparent discrètement l'une des cyberattaques les plus audacieuses de l'histoire.
Pour arriver à leurs fins, ils exploitent une faille dans Solaris 2.4, précisément dans le service rpc.statd qui tourne avec les privilèges root. Le truc foufou (ou flippant selon comment on voit les choses) c'est que cette vulnérabilité était connue depuis décembre 1997. Les patchs étaient disponibles, mais personne ne les avait appliqués.
Leur attaque se déroule en quatre phases ultra-méthodiques : reconnaissance des cibles, exploitation de la faille, déploiement de backdoors, et exfiltration de données. Ils ne frappent pas une cible après l'autre comme dans les films. Non, ils propagent leur intrusion simultanément sur plusieurs sites : bases de l'Air Force, de la Navy, systèmes de la NASA, universités sous contrat militaire, et des systèmes du DoD. Au total, plus de 500 systèmes infiltrés.
Heureusement, ils n'ont pas pénétré les systèmes les plus secrets du Pentagone mais uniquement des réseaux non classifiés. Mais même sur des systèmes non classifiés, vous avez des informations opérationnelles sensibles. Des backdoors installées, des sniffers qui capturent les mots de passe, des accès qui auraient pu être exploités autrement... John Hamre, le Deputy Defense Secretary de l'époque, qualifiera l'attaque de "la plus organisée à ce jour" contre les systèmes militaires américains.
Mais tout faux empire finit par s'effondrer.
Le FBI, la NSA, l'Air Force OSI et le Shin Bet israélien unissent leurs forces. Et vous le savez, les intrusions laissent des traces. Des serveurs intermédiaires, des rebonds, des adresses IP qui finissent par pointer vers Israël. La coopération internationale se met alors en place.
Le 18 mars 1998, Ehud Tenenbaum se réveille dans son appartement de Hod HaSharon. Sauf que ce matin-là, il ne se réveille pas avec une envie de pisser. Il se réveille avec la police israélienne dans son salon. Fin de l'aventure pour The Analyzer.
La réaction médiatique est immédiate. D'abord, le soulagement : ce n'est pas une attaque étatique irakienne. Mais ensuite, le choc : des adolescents ont paralysé les défenses informatiques du DoD. Et cette affaire va contribuer à la création de la Presidential Decision Directive/NSC-63, la politique de cybersécurité nationale des États-Unis.
L'affaire met trois ans à arriver devant les tribunaux. En 2001, Ehud Tenenbaum plaide coupable. La sentence initiale ? Six mois de travaux d'intérêt général. Léger, non ? Le procureur fait appel et en juin 2002, le tribunal alourdit la peine : 18 mois de prison. Mais grâce au système de libération conditionnelle israélien, qui permet une libération après environ 50% de la peine purgée, Ehud ne purge qu'environ 8 mois.
Sorti de prison, Ehud tente de se ranger. En 2003, il fonde 2XS Security, une société de conseil en sécurité et son idée c'est d'utiliser sa notoriété pour faire du consulting. Le hacker devenu consultant, c'est un classique, mais la tentation revient. Toujours.
Ehud Tenenbaum, désormais âgé de 29 ans, monte un nouveau coup. Ce qu'il veut c'est hacker les systèmes d'institutions financières américaines et canadiennes, voler des informations de cartes bancaires par milliers, les charger sur des cartes prépayées, puis utiliser un réseau international de "mules" pour retirer l'argent aux distributeurs.
Sa cible principale est Direct Cash Management, une boîte de Calgary, en Alberta. Et sa technique c'est une bonne vieille injection SQL pour accéder à la base de données. Classique mais efficace.
Le butin ? Environ 1,8 million de dollars canadiens (soit ~1,7 million USD) rien que pour Direct Cash Management. Mais l'opération visait aussi d'autres cibles américaines : OmniAmerican Credit Union au Texas, Global Cash Card. Au total, les pertes estimées dépassent les 10 millions de dollars.
Ehud travaille avec des complices, dont sa fiancée Priscilla Mastrangelo à Calgary. Les charges contre elle seront finalement abandonnées, mais son implication reste floue.
De leur côté, le FBI et la GRC (Gendarmerie royale du Canada) ne chôment pas. Et en septembre 2008, Ehud Tenenbaum est arrêté au Canada et détenu au Calgary Remand Centre, en Alberta. L'extradition vers les États-Unis va prendre du temps.
En 2012, après quatre ans de procédure, Ehud accepte un plea bargain. La sentence ? Le temps déjà passé en détention (time served), 503 000 dollars de restitution et trois ans de mise à l'épreuve. Fin de l'affaire américaine.
Toutefois, l'histoire ne s'arrête pas là car en novembre 2013, Ehud Tenenbaum est de nouveau arrêté en Israël, cette fois pour blanchiment d'argent à grande échelle. Quand est-il rentré en Israël ? Ça, les archives publiques ne le disent pas, quand à l'issue de cette affaire, c'est un mystère total. Certaines sources évoquent une condamnation à sept ans de prison, d'autres restent floues. Ce qui est sûr, c'est que l'issue de cette troisième arrestation reste dans le brouillard des archives publiques accessibles.
Au final, quel est l'héritage d'Ehud Tenenbaum ? Solar Sunrise a été le premier grand wake-up call cybersécurité pour les États-Unis. Il a prouvé que des adolescents pouvaient paralyser une infrastructure militaire. Il a forcé le DoD à prendre la cybermenace au sérieux. Et il a contribué à façonner la politique de cybersécurité nationale américaine.
Tenenbaum était un génie technique incontestable. Un mec capable de détecter les failles que personne ne voyait, de comprendre les systèmes mieux que leurs créateurs. Et pourtant, il n'a jamais pu résister à la tentation. Comme d'autres hackers légendaires tels que
Kevin Mitnick
ou
Gary McKinnon
, Tenenbaum illustre également cette trajectoire fascinante où le génie technique côtoie l'incapacité à s'arrêter.
-- Article en partenariat avec Cloud Native Days --
Salut les copains !
Aujourd'hui j'ai envie de vous filer un petit rencard qui va plaire à tous ceux qui aiment l'infra, le dev et surtout l'esprit communautaire autour de tout ça. En effet, Aurélien, un fidèle lecteur, m'a envoyé un petit message pour me parler d'un événement qui se prépare et comme ça a l'air d'envoyer du bois, je relaie.
Ça s'appelle les Cloud Native Days France 2026 et c'est que c'est organisé par une équipe de 15 bénévoles (des vrais passionnés, pas des robots du marketing) et porté par une structure à but non lucratif. Selon les organisateurs, ils attendent plus de 2000 personnes le mardi 3 février 2026 au CENTQUATRE-PARIS (le fameux 104 pour les intimes ^^).
Alors autant vous dire qu'une bonne partie de la scène tech française va débarquer !
Au programme, on oublie le bullshit commercial et les présentations PowerPoint de 50 slides pour vous vendre un abonnement cloud hors de prix et on part sur de l'expertise pointue, du DevOps, du Cloud Native et bien sûr du gros morceau d'Open Source. Je vous parle de vrais RETEX (retours d'expérience) et de mecs qui savent de quoi ils parlent quand ils évoquent Kubernetes, le Platform Engineering ou la sécurité des infras.
Bref, enfin du concret pour vos méninges !
Il y aura aussi un village communautaire qui va mettre en avant des projets open source, des communautés vertueuses et des passionnés qui partagent leur savoir via des blogs ou des chaînes YouTube. C'est une ambiance que j'adore, car on peut discuter bidouille sans se faire harceler par un commercial en costume.
Voilà, donc si ça vous branche de venir apprendre des trucs ou juste de croiser du beau monde dans un lieu super sympa, je vous conseille de jeter un œil au programme complet. C'est une super occasion de sortir de son terminal et de voir du monde en vrai.
Bref, un grand bravo à Aurélien et toute son équipe de bénévoles pour le boulot.
Alors ça c'est la news du jour ! C'est pas trop tôt !
Bruxelles passe enfin à la vitesse supérieure et réalise que confier une partie critique de sa souveraineté numérique à des acteurs extérieurs n'était peut-être pas l'idée du siècle. Vieux motard que j'aimais comme disait ma grand-mère.
Le QG de ceux qui viennent de comprendre l'intérêt du libre
La Commission européenne vient de lancer ce qu'elle appelle un "Appel à contributions" (ou Call for Evidence en angliche) autour de l'Open Source. Et attention, l'idée c'est pas juste d'utiliser VLC ou LibreOffice sur les PC des fonctionnaires mais carrément de revoir la
stratégie 2020-2023
pour faire de l'open source une véritable infrastructure essentielle pour l'Europe.
En gros, selon la Commission, 70 à 90 % du code de l'économie numérique repose sur des briques open source sauf que la valeur commerciale et stratégique de tout ça, file trop souvent hors de l'UE, chez nos amis les géants américains de la tech. Du coup, ça part vite en dépendance technologique, risques sur la supply chain, souveraineté en carton... la totale.
L'objectif est donc de préparer une stratégie sur les "Écosystèmes Numériques Ouverts Européens" qui est un joli nom pour dire qu'on veut arrêter d'être les dindons de la farce et qu'on veut réduire notre dépendance. Sécurité, résilience, indépendance... les mots-clés sont lâchés.
Maintenant si vous voulez mon avis, c'est une excellente nouvelle (même si j'aurais aimé lire ça il y a 10 ans) car l'Europe a un vivier de développeurs incroyable, mais on a trop souvent laissé nos pépites se faire racheter ou vampiriser. D'ailleurs, si le sujet de la souveraineté tech vous intéresse, jetez un oeil à
mon article sur l'initiative Go European
qui listait déjà des alternatives bien de chez nous.
La consultation court du 6 janvier au 3 février 2026 (jusqu'à minuit). C'est court, mais c'est le moment ou jamais de l'ouvrir si vous êtes développeur, entrepreneur ou juste un citoyen concerné par le fait que nos données ne soient pas totalement sous contrôle étranger.
Bref, à vous de jouer si vous voulez que ça bouge.
Bon, les amis linuxiens (et ceux qui n'ont pas encore sauté le pas), asseyez-vous confortablement sur votre tabouret parce que Wine 11.0 vient de pointer le bout de son nez et c'est du lourd. Si vous pensiez que le projet s'essoufflait, détrompez-vous puisque après un un an de boulot, plus de 6 000 changements et 600 bugs corrigés, c'est pas juste une petite mise à jour de routine, c'est une sacrée étape !
Je commence direct, le gros morceau qui va faire plaisir aux gamers, c'est l'intégration de NTSYNC. Pour faire simple, c'est un module noyau Linux (qui devrait arriver avec le noyau 6.14) qui permet de gérer la synchronisation entre les processus de façon beaucoup plus efficace. Concrètement, ça veut dire que les jeux Windows qui tournent sur Linux vont arrêter de galérer sur les accès concurrents et gagner en fluidité. On est sur du gain de performance pur et dur.
L'autre révolution sous le capot, c'est la finalisation de l'architecture WoW64. Si vous vous souvenez, on en parlait déjà dans les versions précédentes comme d'une expérimentation, mais là c'est bon, c'est prêt. Ça permet de faire tourner des applications 32 bits (et même du 16 bits pour les nostalgiques) dans des préfixes 64 bits de manière totalement propre. Adieu le binaire wine64 séparé, maintenant on a un seul exécutable unifié qui gère tout. C'est plus propre, plus stable et ça simplifie vachement la vie.
Côté graphisme, Wine 11.0 passe à Vulkan 1.4.335 et apporte enfin le décodage matériel H.264 via les API Direct3D 11 sur Vulkan Video. En gros, vos vidéos et vos jeux vont moins pomper sur le CPU. Le pilote Wayland continue aussi de s'améliorer avec une meilleure gestion du presse-papier et des méthodes de saisie.
On sent que le futur sans X11 approche à grands pas...
Et pour ceux qui aiment brancher tout et n'importe quoi sur leur bécane, il y a du nouveau côté Bluetooth. On a maintenant un support initial pour le scan des appareils, la découverte et même l'appairage basique sur Linux via BlueZ. C'est encore le début, mais pouvoir connecter sa manette ou son casque sans bidouiller pendant trois heures, c'est ça l'objectif. Les joysticks et les volants à retour de force ont aussi eu droit à leur petit coup de polish pour une meilleure précision.
On notera aussi que le support de TWAIN 2.0 pour le scan 64 bits est de la partie, tout comme des améliorations sur MSHTML pour le rendu web et même le support de Ping pour l'ICMPv6. Bref, c'est une version hyper complète qui prouve une fois de plus que le pont entre Windows et Linux est de plus en plus solide.
Voilà, si vous voulez tester tout ça, c'est dispo dès maintenant sur le site officiel. Comme d'hab, il faudra peut-être attendre quelques jours pour que ça arrive dans les dépôts de votre distrib préférée, mais ça vaut le coup d'œil.
C’était prévisible et j’ai envie de dire tant mieux ! Encore une saloperie en moins dans la liste des angoisses du technophile moderne qui hésite à passer à l'électrique par peur de voir sa batterie se transformer en brique de lithium inerte au bout de trois ans.
Perso, je ne vois aucune raison de flipper de passer à l'électrique, mais maintenant, après avoir lu les résultats de cette étude massive menée par Geotab sur pas moins de 22 700 véhicules électriques, je me dis que mon choix était le bon.
Alors bon, pour ceux qui débarquent, sachez que le grand épouvantail de la voiture à piles, c'est la dégradation. Bouuuh ! On imagine tous que ça va faire comme nos vieux smartphones qui s'éteignent à 20% dès qu'il fait un peu frais. Sauf que non, le monde de l'automobile, c'est un autre délire au niveau du matos et de la gestion électronique.
Le stock de batteries, c'est du solide, promis
Car les chiffres sont tombés et ils sont plutôt béton. En moyenne, les batteries de bagnoles électriques ne perdent que 2 % de leur capacité par an. En gros, au bout de 10 ans, votre fidèle destrier disposera encore de 82 % de son autonomie d'origine. Si vous aviez 400 bornes d'autonomie au début, il vous en reste 328 après une décennie de bons et loyaux services. C'est loin d'être la mort, non ?
D'ailleurs, si vous avez la chance de rouler dans un machin comme
une Hyundai Ioniq 5
(ma petite préférée, vous le savez), vous savez que tout est dans la gestion du bazar. L'étude montre que si vous chargez tranquillement chez vous la nuit et que vous n'utilisez la recharge rapide DC (les bornes qui envoient du lourd, genre plus de 100 kW) que de temps en temps, vous pouvez même descendre à 1,5 % de perte annuelle. Du coup, après 10 ans, vous seriez encore à 90 % de capacité. Nickel quoi.
Mais attention hein, tout n'est pas rose au pays des électrons si on fait n'importe quoi. Les vrais ennemis de votre batterie, ce sont les climats extrêmes et la manie de laisser la voiture garée à 100% ou à 0% pendant des plombes. Et la chaleur aussi, c'est le mal car ça peut bouffer 0,4 % de dégradation supplémentaire par an. Donc si vous pouvez, garez-vous à l'ombre.
Après pour ceux qui se demandent combien coûte le joujou, sachez qu'une batterie de 100 kWh peut grimper jusqu'à 20 000 ou 25 000 €, ce qui explique pourquoi on flippe autant de la voir claquer. Mais rassurez-vous, quand elles arrivent vraiment en bout de course pour l'automobile, elles ne finissent pas à la décharge. Non, elles entament une seconde vie (voire une troisième) comme stockage stationnaire pour les habitations ou le réseau électrique, avant d'être recyclées par les fournisseurs qui récupèrent les métaux précieux. C'est un point que j'abordais déjà dans mon dossier sur
l'état du marché des véhicules électriques en 2025
.
Et pour les pros qui roulent en fourgonnette électrique, c'est un peu plus sport puisqu'ils sont à 2,7 % de perte par an en moyenne. Forcément, les batteries sont souvent plus petites, on tire plus dedans et on passe son temps sur les bornes de recharge rapide pour ne pas perdre de temps. C'est le prix à payer pour bosser dur, mais même là, c'est loin d'être la catastrophe annoncée.
Bref, si ça vous tente de passer à l'électrique mais que vous hésitiez à cause du "prix du remplacement de la batterie", vous pouvez souffler un coup. Votre batterie durera probablement plus longtemps que votre patience dans les bouchons. De mon côté, je cherche à installer une petite prise dédiée à la maison, mais trouver un électricien disponible en ce moment, c'est un peu comme essayer de trouver une NES Mini à sa sortie... C'est chaud !
Bon, on savait que c’était tendu en Iran pour chopper un peu d’Internet libre, mais là on passe clairement au niveau supérieur dans la traque technologique.
En effet, si vous pensiez que poser une antenne Starlink sur votre toit en scred suffisait pour échapper aux mollahs, vous allez être déçus. On n’est plus sur du "je cache le routeur derrière un ficus et tout ira bien", mais sur un mélange de coupures massives, de brouillage, et de chasse aux terminaux qui ressemble très fort à de la guerre électronique.
Déjà, rappelons un peu le contexte... Quand l’État coupe Internet et bride même le téléphone, Starlink devient systématiquement la bouée. Normal c'est de la connexion satellite, donc ça passe partout. Mais le Wall Street Journal raconte que, ces derniers jours, les autorités ont commencé à fouiller et confisquer des paraboles, notamment dans l’ouest de Téhéran, avec des perturbations plus fortes le soir, au moment où les gens descendent dans la rue. Forcément avoir du Starlink c’est illégal et les kits sont passés en contrebande via des bateaux depuis Dubaï, ou par la route via le Kurdistan irakien, etc. Bref, le tuyau vers l'Internet libre est rare, cher, risqué… mais vital pour sortir des vidéos de ce qui se passe dans le pays.
Dishy, l’antenne Starlink pour les intimes, est une antenne à réseau phasé qui dirige son énergie vers le satellite. Mais le truc à comprendre, c’est que "faisceau étroit" ne veut pas dire "invisible" car comme toute émission radio, ça laisse une empreinte. Du coup, un terminal qui transmet peut être détecté, surtout si en face il y a des moyens sérieux de radiogoniométrie / SIGINT (repérer qu’il y a une source, estimer une direction, recouper depuis plusieurs points, etc.).
Et à partir du moment où on peut recouper des mesures, on n’est plus très loin de remonter à un quartier… voire plus précis selon les moyens et la densité de capteurs.
Et justement, c'est là qu'on sort du folklore puisqu'avec tout ce qui se passe actuellement en Iran, il y a une intensification des efforts pour brouiller le service ainsi qu'une chasse active aux utilisateurs. Sur le volet "matos", on voit par exemple circuler des noms de systèmes russes présentés comme capables de repérer des terminaux Starlink (certains médias russes ont même mis en avant un système surnommé "Borshchevik") mais ce genre d’étiquette et les performances annoncées sont difficiles à vérifier indépendamment depuis l’extérieur. Ce qui est sûr en tout cas, c’est que sur le terrain, l’Iran traite ça comme une cible de guerre électronique, et pas comme un simple routeur interdit.
Autre point important chez Starlink, c'est le GNSS (GPS & co). On entend souvent que les affreux s'amusent à brouiller le GPS, donc l’antenne ne sait plus où elle est, donc ça marche plus. Mais la réalité est moins binaire car oui, le brouillage/spoofing GNSS peut compliquer ou empêcher la mise en service, dégrader la stabilité, ou foutre le bazar dans la synchronisation, surtout si le terminal a été déplacé ou redémarre en zone hostile. Mais selon les versions, les firmwares et les conditions radio, ça va plutôt d'un "ça rame" à un "ça coupe". Ce n'est donc pas forcément un interrupteur magique universel même si pour le régime iranien, ça reste une arme efficace pour rendre l’accès instable au moment où les gens en ont le plus besoin.
Évidemment, côté utilisateurs, c’est système D sur fond de parano (justifiée), et de créativité. On a vu passer des paraboles planquées sous des structures ou déguisées en objets du quotidien et beaucoup font attention au "bruit" autour de l'antenne... Par exemple certains évitent de laisser un Wi-Fi qui hurle “SALUT JE SUIS LÀ” au voisinage et passent sur du filaire quand c’est possible. Parce qu’au-delà du lien satellite, le premier truc qui peut trahir, c’est aussi tout ce qui rayonne localement (Wi-Fi, équipements, habitudes de trafic…). Et quand en face y'a des gens qui fouillent, confisquent, et cherchent des preuves, chaque détail compte.
L’Iran aurait même poussé le dossier à l’Union Internationale des Télécommunications (ITU, ONU) afin de tenter de faire interdire le service d'Elon Musk sur son territoire. Mais les États-Unis et Starlink résistent à l’idée d’appliquer ce bannissement au-delà du fait de couper des terminaux identifiés. En clair, c'est pas juste une chasse technique mais c’est aussi une bataille diplomatique et juridique pour l'Iran.
Mais alors si Starlink devient trop dangereux ou trop instable, qu’est-ce qu’il reste au peuple iranien ? Hé bien là, on passe en mode plan B / plan C. Par exemple, certains regardent du côté des messageries capables de faire du relais local / du
store-and-forward
, des réseaux mesh à l’ancienne en Bluetooth / Wi-Fi direct, pour faire passer des messages de proche en proche quand Internet est mort. Ça ne remplace pas une connexion, c'est certain, mais ça peut maintenir une circulation d’infos dans une ville, et parfois faire remonter des messages vers une passerelle qui, elle, a accès au monde extérieur.
On parle aussi beaucoup du "satellite-to-cell / direct-to-device" c'est à dire envoyer des SMS via satellite avec un téléphone standard. La techno existe et avance, oui, mais attention, ce n’est pas non plus une baguette magique activable n’importe où, car ça dépend des déploiements, des accords opérateurs, des fréquences, et… du fait que le régime ne vous mette pas des bâtons dans les roues par d’autres moyens. Disons donc que c’est une possibilité à garder en tête mais pas un joker garanti à ce jour.
Et puis il y a les hacks "crypto" qui reviennent dans les discussions dès qu’un pays se retrouve isolé. Là aussi, il faut être précis car recevoir des infos via satellite (genre l’état de la blockchain Bitcoin) c’est un truc connu, mais émettre une transaction vers le réseau, il faut quand même un canal de sortie quelque part (une passerelle, un relais, une connexion, même indirecte). Donc oui, il y a des bricolages via despasserelles (SMS, relais, etc.), mais ce n’est pas du "Bitcoin par SMS directement vers les nœuds" comme par magie.
Dernier point, parce qu’on voit passer des chiffres et des infographies qui donnent beaucoup de chiffres... Tant que la coupure Internet rend la vérification infernale, il faut être prudent sur les chiffres qu'on nous annonce sur la situation dans le pays. Par contre, sur la partie forensique réseau des initiatives comme
Whisper
compilent des signaux techniques (BGP, instabilités, etc.) qui aident à comprendre comment un pays comme l'Iran se fait effacer d’Internet et ça, c’est une pièce très utile du puzzle, même si ça ne remplace pas une enquête indépendante sur le terrain.
Voilà, je trouve ça très moche ce qui se passe là bas et voir que la technologie, qui devrait être un pont, devient un champ de bataille, ça me révolte. Alors en attendant, un grand respect aux bidouilleurs et autres geeks qui se trouvent là-bas et qui risquent gros pour juste nous envoyer de l'info sur ce qui se passe vraiment chez eux.
Mais si, le créateur de Signal qui a, grosso modo, appris au monde entier ce qu'était le chiffrement de bout en bout accessible à tous.
Hé bien, le garçon est de retour et cette fois, il ne s'attaque pas à vos SMS, mais à vos conversations avec les Intelligences Artificielles.
Son nouveau projet s'appelle Confer et autant vous le dire tout de suite, c'est du lourd car son idée c'est de faire pour les chatbots IA ce que Signal a fait pour la messagerie instantanée. C'est-à-dire rendre le tout réellement privé, avec des garanties techniques tellement fortes que personne, ni lui, ni les hébergeurs, ni la police, ne puisse (en théorie) mettre le nez dans vos prompts.
Alors pour ceux d'entre vous qui se demandent "Quelle est la meilleure alternative privée à ChatGPT ?", vous tenez peut-être la réponse.
Car le problème avec les IA actuelles c'est que quand vous papotez avec ChatGPT, Gemini ou Claude, c'est un peu comme si vous confessiez tous vos secrets dans un mégaphone au milieu de la place publique. Ces modèles ont soif de données et Sam Altman d'OpenAI a lui-même souligné que les décisions de justice obligeant à conserver les logs (même supprimés) posaient un vrai problème, allant jusqu'à dire que même des sessions de psychothérapie pourraient ne pas rester privées.
Et c'est là que Confer change la donne.
Alors comment ça marche ? Hé bien Confer utilise une approche radicale puisque tout le backend (les serveurs, les modèles LLM) tourne dans ce qu'on appelle un TEE (Trusted Execution Environment). En gros, c'est une enclave sécurisée au niveau du processeur de la machine qui empêche même les administrateurs du serveur de voir ce qui s'y passe. Et pour prouver que c'est bien le bon code qui tourne, ils utilisent
un système d'attestation distante
.
Les données sont chiffrées avec des clés qui restent sur votre appareil et Confer utilise les Passkeys (WebAuthn) pour dériver un matériel de clé de 32 octets. Ainsi, la clé privée reste protégée sur votre machine (dans le stockage sécurisé type Secure Enclave ou TPM selon votre matos).
Du coup, quand vous envoyez un message à l'IA, le flux est conçu pour être :
Chiffré depuis chez vous.
Traité dans l'enclave sécurisée du serveur (TEE).
Déchiffré uniquement dans la mémoire volatile de l'enclave.
Rechiffré immédiatement pour la réponse.
C'est propre, c'est élégant, c'est du Moxie à 100% !
Bien sûr, Confer n'est pas le seul sur le créneau. J'ai vu passer des initiatives comme
Venice
(qui stocke tout en local) ou
Lumo
de Proton. Si vous utilisez déjà
des outils comme OnionShare
pour vos fichiers, cette approche "zéro trust" vous parlera forcément.
Mais la force de Confer, c'est l'expérience utilisateur car comme Signal à son époque, ça marche tout simplement. Suffit de 2 clics, une authentification biométrique, et boum, vous êtes connecté et vos historiques sont synchronisés entre vos appareils (de manière chiffrée, vérifiable via le log de transparence). En plus vous pouvez même importer votre contenu depuis ChatGPT.
L'outil est open source et le code auditable. De plus le support natif est dispo sur les dernières versions de macOS, iOS et Android. Je l'ai testé et ça répond vite et bien. Après je ne sais pas si c'est un LLM from scratch ou un modèle libre fine tuné. Et je n'ai pas fait assez de tests pour tenter de lui faire dire des choses qu'il n'a pas envie mais il a l'air pas pour le moment.
Pour l'utiliser sous Windows, il faudra passer par un authentificateur tiers pour le moment et pour Linux...
une extension existe déjà
pour faire le pont en attendant mieux. Par contre, c'est limité à 20 messages par jour et si vous en voulez plus, faudra passer au payant pour 35$ par mois. Mais on a rien sans rien. Après si vous vous inscrivez avec mon code KORBEN vous aurez 1 mois gratuit et moi aussi ^^
Bref, si vous cherchiez comment mettre un peu de vie privée dans vos délires avec l'IA, je vous invite grandement à jeter un œil à Confer. J'sais pas vous mais moi je trouve que ça fait du bien de voir des projets qui remettent un peu l'utilisateur aux commandes.
Vous le savez, Apple et les abonnements, c'est une grande histoire d'amour. Après Apple Music, Apple TV+, Apple Arcade et Apple One, la firme de Cupertino vient de dégainer une nouvelle offre qui risque de faire du bruit dans le petit monde des créatifs : Apple Creator Studio.
Si vous en avez marre de payer vos licences logicielles au prix fort (ou si au contraire, vous détestez le modèle par abonnement), asseyez-vous, on va regarder ça de près.
Concrètement, Apple Creator Studio, c'est un bundle "tout-en-un" qui regroupe la crème de la crème des logiciels pro de la Pomme.
Ainsi, pour 12,99 € par mois (ou 129 € par an), vous accédez à :
Final Cut Pro (Mac et iPad)
Logic Pro (Mac et iPad)
Pixelmator Pro (Mac et... iPad ! Oui, j'y reviens)
Motion et Compressor
MainStage
Et pour faire bonne mesure, ils ajoutent des fonctionnalités "premium" et de l'IA dans Keynote, Pages et Numbers.
Alors, première réaction à chaud : le prix est agressif. Très agressif.
Si on fait le calcul, acheter Final Cut Pro (299 €), Logic Pro (199 €) et Pixelmator Pro (49 €) en version perpétuelle, ça coûte une petite fortune. Là, pour le prix d'un abonnement Netflix, vous avez toute la suite. Pour les étudiants, c'est même indécent : 2,99 € par mois. Adobe doit commencer à suer à grosses gouttes avec son Creative Cloud à plus de 60 balles... loool.
Mais ce n'est pas juste un repackaging car Apple en profite pour lancer Pixelmator Pro sur iPad. C'était l'un des chaînons manquants et l'app a été optimisée pour le tactile et l'Apple Pencil, et intègre des outils d'IA comme la Super Résolution (un peu comme ce que propose
Upscayl
, un outil libre que j'adore).
Côté vidéo, Final Cut Pro gagne des fonctionnalités "intelligentes" (comprenez : bourrées d'IA). On note l'arrivée du Montage Maker sur iPad, qui monte vos rushs tout seul en se basant sur les "meilleurs moments" (mouais, à tester), et surtout une fonction Beat Detection qui cale automatiquement vos cuts sur le rythme de la musique. Ça, pour les monteurs qui font du clip ou du vlog dynamique, c'est un gain de temps monstrueux. C'est d'ailleurs le genre d'optimisation dont je parlais dans mon article sur
mon process de tournage
.
L'interface de Final Cut Pro avec les nouvelles fonctions IA (
Source
)
Bon, tout ça c'est bien beau, mais il y a un "mais".
Le modèle par abonnement, c'est aussi la perte de la propriété car auand vous achetez une licence à vie, le logiciel est à vous (enfin, façon de parler, mais vous voyez l'idée). Là, si vous arrêtez de payer, vous perdez vos outils. Et quand on voit comment
Apple peut parfois verrouiller des comptes sans préavis
, mettre tous ses œufs créatifs dans le même panier iCloud, ça peut faire peur.
C'est donc encore une fois un gros changement... Même si Apple garde (pour l'instant) l'option d'achat unique pour les versions Mac. Mais pour combien de temps ?
Et surtout, les nouvelles fonctionnalités IA semblent être malheureusement réservées à ce modèle "Studio".
Bref, si vous démarrez dans la création ou si vous êtes étudiant, c'est une aubaine incroyable. Après pour les vieux briscards qui aiment posséder leurs outils, c'est peut-être le début de la fin d'une époque. Perso, je suis partagé entre l'excitation d'avoir Pixelmator sur mon iPad et la tristesse de voir encore un abonnement à la con s'ajouter à la pile.
Bon, on n'est pas encore sur de la recharge de smartphone à distance depuis un satellite, lol, mais on vient de franchir une étape assez sympa dans le monde du "power beaming" c'est à dire de la transmission d'énergie sans fil...
Une startup de Virginie, Overview Energy, vient en effet de réussir un petit exploit. Ils ont envoyé de l'énergie depuis un avion en plein vol vers des récepteurs au sol. Ça s'est passé au-dessus de la Pennsylvanie, avec un vieux Cessna qui se faisait secouer par des vents de 70 nœuds à 5 000 mètres d'altitude et pourtant, malgré les turbulences, le faisceau a tenu bon.
Alors, calmez-vous tout de suite, les geekos, on ne parle pas de quoi alimenter une ville entière, hein ! Les chercheurs décrivent ça plutôt comme une manière de saupoudrer du courant. Ici l'enjeu n'était pas la puissance pure, mais simplement de prouver qu'on pouvait garder un faisceau parfaitement aligné sur sa cible malgré les mouvements d'un avion. C'est donc une première mondiale pour une plateforme mobile à cette distance.
Le truc intéressant, je trouve, c'est le choix de la technologie car là où beaucoup misent sur les micro-ondes, Overview Energy utilise de l'infrarouge (un faisceau laser, quoi).
Ils ont fait ce choix, parce que le spectre des micro-ondes est déjà complètement saturé et avec l'infrarouge, on peut surtout utiliser les fermes solaires déjà installées au sol comme récepteurs. Comme ça pas besoin de construire des antennes géantes et moche... Suffit de taper directement sur les panneaux photovoltaïques existants.
Derrière ce projet, on retrouve également du beau monde, notamment Paul Jaffe, un ancien cador de la DARPA et du Naval Research Laboratory, qui a lâché son poste de chef de projet pour rejoindre l'aventure. Le mec a l'air vraiment convaincu que c'est la solution pour débloquer le solaire spatial.
Parce que vous l'aurez compris, l'idée ULTIME avec cette techno, c'est évidemment de mettre tout ça sur des satellites en orbite géostationnaire. Là-haut, le soleil brille H24, sans nuages, sans politicien ^^, ni atmosphère pour faire chier.
Overview Energy vise un premier test en orbite basse d'ici 2028, avec pour objectif de balancer les premiers mégawatts depuis l'espace en 2030. C'est ambitieux, surtout quand on pense au coût de lancement et aux débris spatiaux, mais cette démo aérienne montre que la partie "visée" est sur la bonne voie.
Bref, on n'a plus qu'à attendre que le prix des lancements baisse encore un peu et peut-être qu'un jour, notre maison sera alimentée par un rayon laser tombant du ciel.
Si on ne meurt pas tout à cause du changement climatique, le futur sera radieux !
Alors, est ce que vous AUSSI, vous avez succombé à la tentation de Claude Code, le nouvel agent en ligne de commande d'Anthropic ?
J'suis sûr que oui !! Ahaha, C'est vrai que c'est hyper pratique de laisser une IA fouiller dans son repo pour corriger des bugs ou refactorer du code. Mais comme toujours avec ces outils qui ont un pied dans votre terminal et un autre dans le cloud, la question de la sécurité finit toujours par se poser.
Est-ce que Claude Code est vraiment sûr ?
Pour Anthropic, la réponse est un grand oui, avec tout son système de permissions basé sur une "blocklist" d'arguments dangereux...
Sauf que voilà,
RyotaK
, un chercheur en sécurité chez GMO Flatt Security, a décidé d'aller voir sous le capot, et ce qu'il a trouvé devrait normalement, vous faire lever un gros sourcil.
En effet, le gars a dégoté pas moins de 8 façons différentes de faire exécuter n'importe quelle commande arbitraire à Claude Code, le tout sans que vous ayez à cliquer sur "Approuver".
En fait, Claude Code autorise par défaut certaines commandes jugées "inoffensives" comme man, sort ou sed, parce qu'elles sont censées être en lecture seule. Et pour éviter les dérives, Anthropic filtre les arguments avec des expressions régulières.
C'est du classique mais RyotaK a montré que c'est un vrai champ de mines. Par exemple, sur la commande "man", il suffisait d'utiliser l'option --html pour lui faire exécuter un binaire arbitraire chargé de "formater" la page.
man --html="touch /tmp/pwned" man
Pareil pour la commande "sort" qui, avec l'argument --compress-program, permet de lancer un shell qui va gentiment interpréter tout ce qu'on lui envoie sur l'entrée standard.
sort --compress-program "gzip"
C'est vicieux parce que ce ne sont pas des bugs de Claude Code à proprement parler, mais juste des fonctionnalités légitimes d'outils Unix vieux de 30 ans que personne ne soupçonne d'être des vecteurs d'attaque ici...
Alors oui, pour ceux qui se demandent si Claude peut lire tout leur code, la réponse est oui, et c'est justement là que ça coince car si vous lancez l'outil sur un projet qui contient des fichiers malveillants (venant d'une PR douteuse ou d'un repo cloné à la va-vite), l'IA peut se faire piéger par ce qu'on appelle de l'injection de prompt indirecte.
Dans un des PoC, le chercheur utilise même les subtilités de Bash avec des trucs comme ${VAR@P} qui permettent d'interpréter le contenu d'une variable comme une invite de commande, exécutant ainsi du code caché. On est en plein dans la magie noire pour terminal et le pire, c'est que même git s'est fait avoir... En effet, Claude bloquait l'argument --upload-pack, mais comme git accepte les versions abrégées, il suffisait de taper --upload-pa pour passer à travers les mailles du filet !
Bref, c'est le jeu du chat et de la souris habituel, mais ici les enjeux sont énormes puisque l'agent a potentiellement accès à vos clés SSH, vos variables d'environnement et tout votre OS.
Après la bonne nouvelle (parce qu'il en faut bien de temps en temps...ahah), c'est qu'Anthropic a réagi au quart de tour et la faille, estampillée CVE-2025-66032, a bien été corrigée dans la version 1.0.93 de claude-code. Ils ont carrément abandonné l'approche par blocklist (trop permissive par nature) pour passer à une allowlist beaucoup plus stricte. Donc, si vous traînez encore sur une vieille version, un petit coup de npm install -g @anthropic-ai/claude-code ne vous fera pas de mal.
Voilà... C'est vrai que ces chouette tous ces assistants IA mais le prix à payer pour avoir un assistant qui bosse à votre place c'est que derrière, faut s'assurer aussi qu'il ne laisse pas la porte ouverte aux cambrioleurs en passant.
Après, ça ou un vrai employé qui tape dans la caisse
ou pire
...
J'sais pas si vous avez vu ça, mais des chercheurs d'OpenAI, d'Anthropic et de Google DeepMind ont décidé de traiter les grands modèles de langage comme des organismes extraterrestres qu'il faut disséquer pour comprendre leur fonctionnement.
Et pour cela, ils utilisent des techniques empruntées à la biologie pour analyser ces réseaux de neurones qu'on a pourtant créés nous-mêmes !
Cette approche originale s'appelle "interprétabilité mécanistique" (mechanistic interpretability en anglais, mais bon, ça sonne mieux que "on va ouvrir la bestiole pour voir ce qu'il y a dedans") et en gros, au lieu de se contenter de tester les modèles sur des tâches précises, ces équipes les étudient comme des biologistes examineraient un spécimen inconnu. Ils cartographient les "circuits neuronaux", identifient des "organes" fonctionnels, cherchent à comprendre quelles parties du modèle s'activent pour telle ou telle tâche.
Ce qui est bizarre c'est que ces systèmes, nous les avons nous-mêmes construits... On les a entraînés, on a choisi l'architecture, on a fourni les données... et pourtant on se retrouve à les étudier comme si c'était des aliens bourrés qui se seraient crashés dans le désert du Nevada.
Du coup, plusieurs équipes ont publié des résultats sur cette approche. Chez Anthropic, par exemple, ils ont cartographié des millions de "features" dans Claude, identifiant des groupes de neurones qui s'activent pour différents concepts abstraits, avec des recherches en cours pour détecter des comportements comme la tromperie. OpenAI a de son côté développé des outils pour visualiser comment l'information circule dans ses modèles, révélant l'existence de circuits neuronaux spécialisés dans différentes tâches.
Et ce qui ressort de ces recherches, c'est surtout qu'on commence à peine à grattouiller la surface. En effet, les
modèles de langage
présentent des comportements émergents qu'on ne peut pas prédire juste en regardant le code ou l'architecture. Du coup, une des façons majeures de comprendre ce qui se passe vraiment là-dedans, c'est de les observer en action et de déduire leur fonctionnement interne comme on le ferait avec n'importe quel système biologique.
Et l'enjeu va bien au-delà de la simple curiosité scientifique car comprendre le fonctionnement interne de ces modèles permettrait de les rendre plus sûrs, de détecter quand ils sont sur le point de générer des
réponses problématiques
, ou de mieux cibler leur entraînement. C'est aussi crucial pour la recherche sur l'alignement car si on veut s'assurer que les IA futures font vraiment ce qu'on veut qu'elles fassent, il faut d'abord comprendre comment elles prennent leurs décisions.
Mais bon, vous me connaissez, je suis toujours très optimiste sur toutes ces recherches scientifiques... Cependant, il faut quand même se méfier car les modèles actuels contiennent des dizaines voire des centaines de milliards de paramètres qui interagissent de façons complexes et cartographier tout ça, c'est un peu comme essayer de comprendre le cerveau humain neurone par neurone.
Donc oui on avance, mais on est encore très looooin d'une compréhension complète... Faudra être patient.
Voici un projet open source qui risque de faire vibrer votre fibre de geek !
Prénommé Deep-Boo, ce robot joueur de Mario Party taillé comme Tibo In Shape est capable de manipuler physiquement une manette pour exploser ses adversaires.
Son créateur, Josh Mosier, a présenté ce petit bijou à l'
Open Sauce 2025
et vous allez voir, c'est aussi bien pensé que c'est fun.
En fait, Deep-Boo ne se contente pas de tricher uniquement via du code car c'est un vrai automate physique qui "voit" l'écran grâce à une carte de capture HDMI et réagit ainsi presque instantanément à ce qui se passe. Pour arriver à cela, Josh a utilisé OpenCV pour analyser les formes et les couleurs en 720p / 60 FPS. Cela permet au robot de détecter les moments cruciaux du gameplay, comme les compte à rebours ou les positions des joueurs.
Côté matériel, on est sur de la bidouille high level puisque l'automate de Josh embarque un microcontrôleur ESP32 qui pilote 12 solénoïdes pour presser les boutons A, B, X, Y et les gâchettes. Mais le vrai défi, c'était le joystick car pour contrôler les mouvements à 360°, il a fallu concevoir un manipulateur parallèle sphérique (SPM) avec des moteurs pas à pas NEMA 17.
L'architecture complexe du manipulateur de joystick (
Source
)
Et là où ça devient vraiment impressionnant, c’est son utilisation de la fonction StallGuard des drivers TMC2209. Ça permet de calibrer les moteurs sans interrupteurs physiques en détectant quand le joystick arrive en butée. C’est pas idiot et ça offre une sacrée précision pour les mini-jeux qui demandent de la finesse.
Josh a même prévu un "Puppet System" c'est à dire un troisième Joy-Con connecté en Bluetooth à l'ESP32 pour reprendre la main manuellement si besoin. C’est un peu comme
Mario Party en carton
mais avec des muscles en métal et un cerveau dopé à la vision intelligente.
Le stand Deep-Boo a attiré les foules à l'Open Sauce 2025 (
Source
)
Lors de l'évènement, le petit fantôme mécanique a même défié
Ludwig
, le célèbre streameur, au jeu de "button mashing" Domination.
Et sans surprise, notre petit robot l'a complétement fumé avec un score de 99 !
Voilà et comme vous connaissez mon amour pour le DIY, vous vous doutez bien que je ne vais pas vous laisser comme ça sur votre faim ! En effet, si vous voulez vous lancer dans la robotique de gaming, tout le code et les fichiers de design sont dispo sur
le dépôt GitHub de Josh
!