Vue normale

Reçu hier — 9 octobre 2025

Dyad - Créer des apps web avec l'IA sans coder et sans sacrifier vos données perso

Par :Korben
9 octobre 2025 à 07:17

Vous connaissez ces outils qui promettent de créer des apps web juste en discutant avec une IA ? Genre Lovable, v0, Bolt, Replit…etc. C’est magique, sauf que tout tourne dans le cloud, vos données passent par leurs serveurs et vous êtes du coup enfermés dans leur écosystème.

Hé bien Dyad fait la même chose, mais un peu différemment puisque tout tourne en local sur votre machine. En plus c’est open-source et c’est gratuit.

Dyad, c’est donc un builder d’applications web piloté par IA. Vous lui expliquez ce que vous voulez, il génère le code directement chez vous sur votre machine et le truc cool, c’est qu’il vous laisse choisir votre modèle IA.

ChatGPT d’OpenAI, Gemini 2.5 Pro de Google, Claude Sonnet 4.5 d’Anthropic, prenez ce que vous voulez, vous mettez vos propres clés API et ça roule. Et si vous tenez vraiment à une vie privée totale, vous pouvez même utiliser Ollama pour faire tourner des modèles en local sans jamais que ça se connecte à internet.

Le projet est dispo sur GitHub , c’est codé en TypeScript, ça s’installe sur Mac et Windows, et y’a aucune inscription requise. Bref, vous téléchargez, vous lancez, et ça marche.

Dyad s’intègre avec Supabase pour la partie backendce qui permet d’avoir une bonne authentification, une base de données, des fonctions serveurr…etc. Tout y est, du coup vous pouvez créer des vraies apps full-stack, et pas juste des interfaces statiques comme on peut le faire avec mon petit LocalSite . Vous partez d’une idée, vous discutez avec l’IA, et vous sortez une application complète qui tourne sur votre machine en full vibe coding !

Il y a bien sûr des plans payants mais la version gratuite fait déjà le job pour du développement solo. Le créateur de Dyad s’appelle Will Chen et a même monté une communauté Reddit r/dyadbuilders où chacun montre un peu ce qu’il a fait. Ça peut vous donner des idées des capacités de cet outil.

Bref, si vous voulez jouer avec un vrai app builder IA sans dépendre du cloud et sans vendre votre âme à une plateforme propriétaire, Dyad fera très bien le job ! Vous pouvez même ensuite ouvrir les fichiers générés dans un VS Code ou Cursor si vous voulez mettre les mains dans le cambouis.

Reçu avant avant-hier

L’équipe en charge du logiciel maison de Volkswagen va renaître, mais l’eau a coulé sous les ponts

Par :Setra
8 octobre 2025 à 17:01
Volkswagen Bresil Exploitation

Après le flop de sa filiale Cariad, chargée de développer sa plateforme pour les véhicules définis par le logiciel, Volkswagen adopte une nouvelle stratégie qui s’appuie sur des partenaires externes, dont Rivian.

SSHM - Un super gestionnaire pour SSH

Par :Korben
8 octobre 2025 à 14:06

Guillaume, fidèle lecteur de Korben.info depuis un looong moment, s’était bricolé un script bash pour gérer ses connexions SSH. Vous savez, c’est le genre de script qu’on améliore petit à petit, puis qu’on finit par ne plus oser toucher de peur de tout casser. C’est pratique, mais pour reprendre les mots de Guillaume dans le mail qu’il m’a écrit, c’est pas très “élégant”.

Puis il est tombé sur deux articles que j’avais écrits : un sur ssh-list , un sur ggh qui sont deux outils sympas pour gérer les connexions SSH depuis le terminal. Mais de son point de vue, incomplets. Et là, il a eu un déclic : “Et si je combinais les deux, en ajoutant ce qui me manque ?

Et un mois plus tard, SSHM était né . On est loin du script du départ puisqu’il a codé un véritable outil en Go avec Bubble Tea , dans une interface TUI moderne, avec un support complet du ~/.ssh/config, une organisation par tags, un historique des connexions, et même du port forwarding avec mémoire. Bref un truc super abouti.

Puis environ environ 1 mois après la sortie de la première version, Guillaume a continué à implémenter pas mal de nouveautés : gestion interactive des hôtes SSH, recherche intelligente multi-mots, indicateurs de statut en temps réel, support ProxyJump, directives Include gérées correctement, personnalisation des raccourcis clavier, compatible Linux/macOS/Windows. Le tout dans un binaire unique sans dépendances.

Faut vraiment que vous testiez car c’est c’est chouette. Je trouve que SSHM a dépassé largement ses inspirations. Par exemple, ssh-list organise vos serveurs en groupes alors que SSHM utilise des tags. Ça permet de marquer un serveur “prod” + “web” + “urgent” et du coup c’est beaucoup plus flexible que de ranger ça dans des dossiers statiques.

ggh fait également du session recall. Cela veut dire qu’il se souvient de vos dernières connexions SSH et vous permet de les relancer rapidement. Et bien SSHM fait ça AUSSI, mais en plus il gère toute votre config SSH : Ajout, édition, suppression d’hôtes, directement depuis l’interface TUI. En vrai, Guillaume n’a pas copié-collé les idées de ces outils mais a repensé totalement l’organisation même de la gestion SSH.

Prenez le port forwarding. Combien de fois vous avez perdu vos notes sur vos tunnels SSH ? Hé bien SSHM lui se souvient de vos dernières configs de tunnels locaux, distants, SOCKS…etc. Si vous forwardez toujours le port 3306 de votre base MySQL de dev, SSHM retiendra les paramètres. Ça fait gagner grave de temps car vous n’avez plus à vous rappeler de la syntaxe “ssh -L 3306:localhost:3306 user@serve” à chaque fois. C’est un petit détail qui prouve bien que cet outil a été créé par quelqu’un qui UTILISE vraiment SSH au quotidien, et pas juste pour faire un script vite fait.

L’interface TUI est plutôt fluide, avec des raccourcis clavier configurables et vous pouvez même désactiver ESC si vous êtes un puriste vim qui déteste les touches d’échappement. Les indicateurs de connectivité SSH s’affichent en couleur en temps réel (vous voyez d’un coup d’œil quels serveurs répondent) et il y a une superbe recherche (un filtre en réalité) par nom et par tags, qui supporte plusieurs mots. Et si vous préférez scripter, SSHM fonctionne aussi en CLI pur. Par exemple, “sshm connect prod-web-01” dans un script bash, et ça marchera en gardant l’historique des connexions.

Un autre point technique important pour les admins qui ont des configs SSH complexes : SSHM gère correctement les directives Include . Hé oui, beaucoup d’outils cassent quand vous avez un ~/.ssh/config qui include des fichiers séparés comme ~/ssh/work et ~/ssh/perso. SSHM est capable non seulement de les lire mais aussi de les éditer correctement.

Concernant l’installation c’est ultra-simple. Sur macOS, Homebrew fait le job. Sur Unix/Linux, il suffit d’un script d’une ligne. Enfin, sous Windows, y’a un script PowerShell. Ou alors vous pouvez télécharger direct le binaire depuis les releases GitHub .

Homebrew pour macOS :

brew install Gu1llaum-3/sshm/sshm

Unix/Linux/macOS :

curl -sSL https://raw.githubusercontent.com/Gu1llaum-3/sshm/main/install/unix.sh | bash

Windows (PowerShell):

irm https://raw.githubusercontent.com/Gu1llaum-3/sshm/main/install/windows.ps1 | iex

Bref, Guillaume a plutôt bien géré son truc je trouve ! Comme quoi, la barrière entre “bidouille perso” et “outil communautaire reconnu” n’a jamais été aussi basse. Avec un bon framework comme Bubble Tea, une idée claire sur ce qui manque aux outils existants, et un ou deux mois de travail sérieux, et hop, on fait un miracle !

Voilà, donc si vous gérez plusieurs serveurs SSH au quotidien, SSHM vaut vraiment le coup d’œil. Un grand merci à Guillaume pour le partage, c’est trop cool !

Google Opal : l’app d’IA sans code pour créer des mini-apps arrive dans 15 nouveaux pays

Google accélère son offensive dans les outils d’intelligence artificielle accessibles à tous. Le géant américain a annoncé l’extension de sa plateforme expérimentale Opal à 15 nouveaux pays, après un premier lancement aux États-Unis plus tôt cette année. Opal permet de créer de petites applications Web à partir de simples instructions textuelles, sans écrire une seule ligne […]

L’article Google Opal : l’app d’IA sans code pour créer des mini-apps arrive dans 15 nouveaux pays est apparu en premier sur BlogNT : le Blog des Nouvelles Technologies.

💾

Google étend Opal à 15 pays. Cette app d’IA permet de créer des mini-applications web avec de simples instructions textuelles, sans coder.

Hyperswitch - La plateforme d'orchestration de paiements open source

Par :Korben
6 octobre 2025 à 16:31

Vous connaissez le job de payment engineer ? Ce métier n’existait même pas il y a 3 ans et aujourd’hui, les paiements en ligne sont devenus tellement complexes qu’il existe carrément une nouvelle catégorie de développeurs… Et au centre de cette petite révolution, il y a Hyperswitch , un projet open source qui est en train de servir de base à toute une génération de spécialistes des paiements.

Sorti en 2022, Hyperswitch est une plateforme d’orchestration de paiements écrite en Rust. Le pitch marketing vous dira que c’est le “Linux des paiements”, un outil modulaire, flexible, open source, mais dans les faits, ça permet surtout de connecter votre boutique en ligne à +50 processeurs de paiement différents via une seule API… Stripe, Adyen, PayPal, tout ce que vous voulez.

Le projet est développé par Juspay, une boîte indienne qui gère déjà les paiements de 400 entreprises et traite 175 millions de transactions par jour et quand ils ont décidé d’open-sourcer leur infrastructure, ils ont vraiment tapé dans le mille ! Rien que le dépôt GitHub affiche maintenant plus de 36 000 étoiles, ce qui est assez dingue pour un outil d’infrastructure B2B.

Et cela arrive au bon moment parce que les paiements en ligne sont devenus un cauchemar technique. Entre les différents processeurs, les méthodes de paiement locales (UPI en Inde, WeChat Pay en Chine, Bancontact en Belgique), les réglementations qui changent, les taux d’autorisation qui varient selon les pays, les frais cachés qui s’accumulent et les webhooks qui plantent au pire moment, il faut vraiment être un spécialiste pour s’y retrouver.

C’est un peu ce qui s’est passé avec le terme DevOps il y a 10 ans. J’sais pas si vous vous souvenez, mais au début c’était juste un buzzword. Puis Docker et Kubernetes sont arrivés, la complexité a explosé, et boom, aujourd’hui tout le monde cherche des ingés DevOps. Même délire avec les “data engineers” quand les boîtes ont commencé à avoir des pétaoctets de données à gérer.

Hé bien les paiements suivent la même trajectoire. Vous ne pouvez plus juste intégrer Stripe et oublier le problème. Si vous faites du volume, vous devez optimiser vos coûts (car les frais peuvent varier de 1 à 3% selon le processeur), améliorer vos taux d’autorisation (parfois 5 à 10 points de différence entre processeurs), gérer le retry intelligent quand une carte est refusée, faire de la réconciliation automatique…etc.

Bref, vous avez besoin d’un spécialiste.

Et c’est exactement ce que fait Hyperswitch qui indirectement forme des ingénieurs en paiement, car quand vous passez 6 mois à bidouiller Hyperswitch , à comprendre comment fonctionne le routing intelligent ou la réconciliation automatique, vous devenez au bout d’un moment spécialiste des paiements.

C’est un peu le même coup qu’a fait Red Hat avec Linux, ou HashiCorp avec Terraform. Vous créez une communauté de gens qui connaissent votre outil à fond, et les membres de cette communauté deviennent ensuite vos meilleurs ambassadeurs et des experts d’un domaine qui recrute à tour de bras. Hyperswitch surfe donc sur cette vague en proposant son outil en self hosting pour l’auto-hébergement ou du managé qu’ils gèrent pour vous. Et c’est clairement un business model qui a fait ses preuves.

Bref, si vous êtes développeur et que vous cherchez une niche où vous spécialiser, les paiements c’est visiblement un secteur qui monte. Et comme Hyperswitch est open source, vous pouvez vous former gratuitement en installant leur stack. Au pire, vous aurez appris quelques trucs utiles et au mieux, vous découvrirez un nouveau métier…

Imagine with Claude : Anthropic révolutionne le développement logiciel sans code

Et si concevoir un logiciel ne nécessitait plus aucune compétence en programmation ? Imaginez simplement décrire votre outil idéal — un gestionnaire de projet sur mesure, un tableau de bord de données personnalisé — et le voir se matérialiser instantanément. Ce qui relevait de la science-fiction est en passe de devenir réalité grâce à « Imagine with […]

L’article Imagine with Claude : Anthropic révolutionne le développement logiciel sans code est apparu en premier sur BlogNT : le Blog des Nouvelles Technologies.

💾

We’ve been experimenting with a new way to generate software. In this research preview, Claude builds whatever you can imagine, on the fly, without writing a...

Des packs de prompts gratuits pour vos IA

Par :Korben
3 octobre 2025 à 12:14

Si vous passez votre temps à demander à ChatGPT de réécrire vos emails professionnels ou à chercher le bon prompt pour analyser un tableau Excel, OpenAI va vous faciliter la vie ! En effet, ils ont mis en ligne l’ OpenAI Academy , une plateforme avec plus de 300 prompts prêts à l’emploi, classés par métier, et totalement gratuits. Comme ça fini de payer 29,99 euros à des influenceurs chelous pour télécharger leur nouveau “Ultimate Prompt Bundle” contenant trois prompts qui marchent et 47 variations inutiles.

Voilà, comme ça, au lieu de partir de zéro à chaque fois que vous voulez utiliser ChatGPT pour bosser, vous allez dans la section Prompt Packs et vous choisissez votre métier. Sales, ingénieur, RH, product manager, customer success, IT, manager, executive…etc. Ils ont même fait des packs pour le secteur public et l’éducation. Chaque pack contient ainsi des dizaines de prompts testés et structurés pour des cas d’usage concrets.

Par exemple, le pack Sales inclut des prompts pour faire de la veille concurrentielle, rédiger des cold emails, analyser vos données de prospection ou créer des visuels pour vos présentations. Le pack Engineering vous aide à générer des diagrammes d’architecture système, faire du benchmark d’outils, débugger du code ou rédiger de la documentation technique. Et le pack HR couvre tout ce qui va du recrutement à la rédaction de politiques internes en passant par l’analyse des données RH.

Ce qui est bien pensé, c’est que les prompts sont prêts à être copié-collé mais aussi assez génériques pour être adaptés. Vous prenez le prompt de base, vous remplacez les variables par vos infos, et ça roule. Pas besoin de passer trois heures à apprendre le prompt engineering ou à regarder des tutos YouTube de 45 minutes qui auraient pu tenir en 2 minutes.

Et dans leurs packs spécifiques pour le gouvernement, il y en a pour les leaders du secteur public avec des prompts pour rédiger des documents de politique publique ou analyser des budgets. Ainsi que des packs pour les équipes IT gouvernementales pour gérer les systèmes, la cybersécurité et le support technique avec des ressources limitées.

Du côté éducation, il y a des packs pour les étudiants , d’autres pour les enseignants , et même pour les administrateurs . Donc que vous soyez prof qui veut préparer un cours ou étudiant qui galère sur un projet, il y a des prompts prêts pour vous.

OpenAI a visiblement compris qu’il y avait un marché de la vente de prompts qui s’était développé ces derniers mois alors avec Academy, ils cassent ce marché en offrant gratuitement une bibliothèque qui couvre la plupart des besoins professionnels courants.

Bon, après c’est pas non plus magique car un prompt finalement, c’est juste un outil. Donc si vous ne savez pas ce que vous voulez obtenir ou si vous ne comprenez pas votre métier, ça ne va pas faire de miracles. Mais pour quelqu’un qui sait ce qu’il cherche et qui veut juste gagner du temps, c’est très pratique.

La plateforme OpenAI Academy propose aussi d’autres contenus comme des webinaires, des guides d’utilisation, des cas d’usage par secteur, si ça vous chauffe.

Voilà, j’ai trouvé ces packs de prompts très cools et je pense que ça vous fera gagner du temps.

Source : OpenAI Academy - Prompt Packs

ChatGPT, la balance !

Par :Korben
3 octobre 2025 à 09:47

Les IA de type GPT ont beau avoir des instructions du genre “tu ne dois jamais révéler ton prompt système”, il suffit de leur demander gentimment de réencoder leurs instructions avec un décalage de César ou de répéter tout le texte dans un format particulier pour qu’elles crachent tout. Et par tout, je veux dire vraiment tout. Le prompt officiel d’OpenAI, d’Anthropic, de Gemini…etc, les instructions personnalisées du créateur, et même les petits Easter eggs cachés dedans.

Dans cette vidéo, je vous montre plusieurs exemples concrets. Un GPT de génération de logos, une calculatrice mathématique qui cache un Easter egg , un optimiseur SEO…etc. Et pour chacun, j’utilise des prompts d’extraction que j’ai trouvés dans ce repo GitHub qui rassemble tous les prompts système leakés de ChatGPT, Claude, Cursor, Perplexity et compagnie. C’est une vraie caverne d’Ali Baba pour ceux qui s’intéressent à ce genre de trucs.

Ce qui est intéressant, c’est que ça ne fonctionne pas que sur les GPTs personnalisés. Vous pouvez aussi extraire les prompts système de Perplexity, de Grok, de plein d’outils qui utilisent des LLM sous le capot. Donc si vous avez toujours voulu savoir comment tel ou tel service construit ses réponses, c’est l’occasion.

Maintenant, je sais ce que vous allez me dire…

C’est pas très éthique de voler le travail des gens comme ça et vous avez raison. Mais d’un autre côté, si ces boites permettent que ce soit aussi facile d’extraire ces infos, c’est peut-être qu’il faut arrêter de considérer les prompts système comme des secrets industriels. Et puis eux ne se privent pas pour voler aussi les contenus des autres, donc bon…

Je vous montre aussi dans ma vidéo comment certains créateurs essaient de se protéger en mettant des instructions anti-extraction, mais ça ne marche pas terrible.

Bref, j’espère que vous y apprendrez quelques trucs. Et je voudrais aussi dire un grand merci aux Patreon sans qui cette vidéo, ce blog et moi-même n’existeraient pas ! Merci pour le soutien !

Je crois que l'IA n'a toujours pas volé votre emploi - Une étude de Yale qui calme le jeu

Par :Korben
3 octobre 2025 à 07:47

Vous vous souvenez quand ChatGPT est sorti fin 2022 ? La panique dans les open spaces, les titres clickbait sur la fin du travail tel qu’on le connaît, votre vieux cousin qui vous expliquait pépouse que dans 6 mois tous les devs seraient au chômage ?

Bon ben voilà, Yale vient de publier une étude qui remet les pendules à l’heure . Et je vous spoile un peu : 33 mois après le lancement de ChatGPT, le marché du travail n’a toujours pas implosé.

Cette étude a pris le temps d’analyser les données au lieu de surfer sur la panique ambiante et Martha Gimbel et son équipe du Budget Lab de Yale ont ainsi passé au crible l’évolution de l’emploi américain depuis novembre 2022, et leurs conclusions sont plutôt rassurantes. Enfin, rassurantes dans un sens. Parce que si vous êtes un jeune diplômé en début de carrière, l’histoire est un poil différente. Mais j’y reviens après.

L’idée de départ de l’étude est assez simple. On a vécu des bouleversements technologiques majeurs par le passé tels que l’arrivée des ordinateurs au bureau dans les années 80, l’explosion d’Internet à la fin des années 90. Et à chaque fois, c’est la même apocalypse annoncée, la même angoisse collective… Du coup, les chercheurs se sont demandé : est-ce que cette fois c’est vraiment différent ? Est-ce que l’IA générative change le marché du travail plus vite que les révolutions technologiques précédentes ?

Pour répondre à ça, nos petits chercheurs ont utilisé un truc qu’ils appellent l’indice de dissimilarité. En gros, ça mesure à quel point la répartition des métiers dans l’économie change au fil du temps. Par exemple si 7% de travailleurs en 2002 devaient changer d’occupation pour retrouver la même répartition qu’en 1996, l’indice est de 7 points de pourcentage. C’est une façon de quantifier le bordel causé par une nouvelle technologie.

Et alors, résultat des courses ?

Et bien le marché du travail américain change effectivement un peu plus vite depuis ChatGPT qu’il ne changeait pendant les périodes de comparaison, mais vraiment pas de beaucoup. On parle d’environ 1 point de pourcentage de différence par rapport à l’époque de l’adoption d’Internet. Si vous regardez les graphiques, les courbes sont presque superposées donc vraiment de quoi déclencher l’état d’urgence.

Et quand les chercheurs y ont regardé de plus près, ils se rendu compte que cette accélération avait même commencé avant la sortie de ChatGPT. En fait, dès 2021, la répartition des métiers changeait déjà à ce rythme-là, donc attribuer ces changements à l’IA générative, c’est un peu hasardeux. C’était peut-être juste la reprise post-COVID, le télétravail qui a tout boulversé, ou une combinaison de facteurs qu’on ne comprend pas encore bien.

Les chercheurs ont aussi regardé secteur par secteur pour voir si certaines industries se faisaient plus défoncer que d’autres. Logiquement, si l’IA tape fort, ça devrait se voir dans les secteurs les plus exposés : l’information (journalisme, data processing), la finance, les services aux entreprises. Effectivement, ces secteurs ont connu des changements plus marqués que la moyenne.

Rien que le secteur de l’information (auquel j’appartiens) a vu son mix d’emplois pas mal bousculé mais quand on remonte dans le temps, on se rend compte que ce secteur en particulier a toujours été volatil. Ses emplois changent constamment, depuis bien avant l’IA générative car c’est un secteur qui se transforme en permanence. Maintenant, difficile de dire si l’IA accélère vraiment la tendance ou si c’est comme d’hab…

Et histoire de mettre encore un peu plus les choses en perspective, Jed Kolko de la Harvard Business Review a démontré que les changements actuels du marché du travail sont ridiculement faibles comparés à ce qu’on a connu dans les années 40 et 50. À l’époque, les bouleversements liés à la guerre et à la reconstruction faisaient bouger les lignes à une vitesse hallucinante mais aujourd’hui, on est sur une petite brise tranquille en comparaison.

Après il y a quand même un truc qui fait peur dans cette étude. Car même si globalement le marché du travail tient le coup, il y a une catégorie de travailleurs qui morfle… Ce sont les jeunes diplômés en début de carrière . Erik Brynjolfsson, un économiste de Stanford et spécialiste de l’IA, a publié en août dernier une étude complémentaire qui fait vraiment froid dans le dos.

En analysant les données de paie d’ADP (le plus gros fournisseur de logiciels de paie aux États-Unis), il a découvert que l’emploi des jeunes travailleurs (22-25 ans) dans les métiers les plus exposés à l’IA a chuté de 6% depuis fin 2022, pendant que l’emploi des travailleurs plus âgés dans les mêmes métiers augmentait de 6 à 9%.

C’est énorme comme écart… Ça représente une baisse relative de 13% pour les débutants par rapport aux seniors. Et dans certains secteurs comme le dev logiciel et le service client, la chute est encore plus brutale. C’est environ 20% de baisse pour les juniors entre fin 2022 et juillet 2025, alors que les seniors voyaient leur emploi progresser.

Brynjolfsson explique pourquoi les jeunes sont plus touchés, et c’est plutôt logique quand on y pense. En fait, les grands modèles de langage comme ChatGPT sont entraînés sur des livres, des articles, du contenu trouvé sur Internet. C’est exactement le genre de connaissances théoriques qu’on acquiert à l’université avant d’entrer sur le marché du travail, du coup, il y a un gros chevauchement entre ce que savent les LLM et ce que savent les jeunes diplômés tout frais démoulus de la fac.

Alors que les travailleurs expérimentés, eux, ont autre chose à offrir. Des années de pratique, des soft skills, une compréhension fine des dynamiques d’entreprise, un réseau professionnel…etc. Bref, des trucs qu’un LLM ne peut pas (encore) reproduire (mais votre tour viendra aussi, soyez en certains).

Résultat, les entreprises gardent ou embauchent des seniors et utilisent l’IA pour combler le gap qui était traditionnellement comblé par des juniors.

Par contre, dans les métiers où l’IA vient juste assister les travailleurs sans les remplacer, on ne voit pas cette différence entre les jeunes et les vieux.

Les chercheurs de Yale n’ont donc trouvé aucune corrélation entre l’exposition à l’IA (données OpenAI/Anthropic) et les changements d’emploi. Les métiers très exposés ne perdent pas plus d’emplois que les autres.

Il y a également une autre étude intéressante qui est sortie récemment. OpenAI a analysé 1,5 million de conversations de ses 700 millions d’utilisateurs actifs par semaine et en juin 2024, 47% des échanges concernaient le travail. Un an plus tard, ce chiffre est tombé à 27% ce qui fait que 73% de l’usage de ChatGPT est personnel, et pas professionnel.

Alors peut-être que l’IA générative trouve plus facilement sa place dans nos vies perso (aide aux devoirs, recettes de cuisine, conseils de voyage) que dans le monde du travail où les process sont plus complexes, les enjeux de sécurité plus importants, et l’intégration plus difficile, je ne sais pas… Ou peut-être que les entreprises sont juste plus lentes à l’adopter. C’est difficile à dire.

Mais bon, maintenant on sait que pour le moment, ça ne sert à rien de paniquer car les métiers changent, oui, mais pas plus vite que lors des précédentes révolutions technologiques. Et surtout, les changements qu’on observe ont commencé avant même ChatGPT, donc difficile de tout mettre sur le dos de l’IA.

Par contre, si vous êtes un étudiant qui s’apprête à entrer sur le marché du travail, vous devez être conscient que la compétition est plus rude qu’avant car l’IA ne vole peut-être pas tous les jobs, mais elle semble voler des points d’entrée traditionnels dans certains métiers.

Quoiqu’il en soit, les chercheurs de Yale prévoient de mettre à jour leur analyse régulièrement pour suivre l’évolution car une photo à un instant T ne suffit pas pour prédire le futur, et les effets pourraient s’accélérer. Ou pas. On verra bien…

En attendant, voici mes quelques conseils à deux balles… Si vous êtes en début de carrière, ne misez pas tout uniquement sur vos connaissances théoriques. Développez des compétences pratiques, construisez un portfolio de projets concrets, apprenez à bosser en équipe, améliorez votre communication (les fameux soft skills). Bref, lancez vous dans tout ce qui vous différencie d’un LLM. Et paradoxalement, apprendre à bien utiliser l’IA pourrait aussi être un énorma plus. Si tout le monde a accès à ChatGPT mais que vous savez l’utiliser mieux que les autres, ça peut faire la différence !

Et si vous êtes une entreprise, peut-être qu’il faut réfléchir à deux fois avant de shooter tous les postes juniors. Car oui, l’IA peut faire certaines tâches de base et vous faire économiser du temps et du pognon, mais former des petits jeunes c’est aussi investir dans votre pipeline de futurs seniors. Hé ouais…

Parce que si demain, tout le monde arrête d’embaucher des débutants, dans 10 ans, il n’y aura plus d’experts…

Source

Google muscle Jules, son agent IA de codage, avec un CLI et une API publique

La bataille des agents IA pour les développeurs s’intensifie, et Google avance ses pions. Son agent de codage Jules, jusqu’ici accessible uniquement via le Web et GitHub, arrive désormais directement dans l’environnement de travail des développeurs. La firme vient de lancer Jules Tools, une extension en ligne de commande (CLI) et une API publique pour […]

L’article Google muscle Jules, son agent IA de codage, avec un CLI et une API publique est apparu en premier sur BlogNT : le Blog des Nouvelles Technologies.

Dreamer 4 - L'IA qui connait Minecraft sans jamais y avoir joué

Par :Korben
3 octobre 2025 à 07:20

Vous vous rappelez ce gamin chauve dans Matrix qui plie des cuillères avec son esprit ? Il balance OKLM au petit Neo que “La cuillère n’existe pas”…

Eh bien, les chercheurs de Google DeepMind viennent de créer une IA qui applique exactement ce principe à Minecraft. Dreamer 4 (c’est son nom) n’a jamais touché au jeu, jamais cliqué, jamais bougé, jamais miné… (comme moi quoi…). Mais par contre, elle a regardé d’autres jouer, s’est construit son propre Minecraft mental, et s’est entraînée dans son imagination. Du coup, cela fait d’elle la première IA à atteindre les diamants en mode offline pur. Plus de 20 000 actions maîtrisées sans jamais poser un doigt (virtuel) sur le clavier.

Minecraft n’existe pas” pourrait dire le petit chauve…

Bref, ce que Danijar Hafner et son équipe ont réussi à faire, c’est de créer ce qu’on appelle un “world model”… une simulation mentale du jeu. L’IA observe des vidéos de joueurs, comprend les règles implicites de l’univers, puis s’entraîne dans cette version simulée qu’elle s’est construite dans sa “tête”. Aucune interaction avec le vrai jeu. Juste de l’imagination pure.

Et le truc surprenant (et c’est pour ça que je vous en parle), c’est que ça marche mieux qu’avec les approches traditionnelles.

De base, les IA classiques apprennent par essai-erreur dans un environnement réel. Elles testent des milliers d’actions, se plantent, recommencent, ajustent. C’est long, c’est coûteux en calcul, et dans certains domaines comme la robotique, ça peut carrément casser du matériel.

Dreamer 4 contourne donc tout ça en apprenant dans sa simulation interne, un peu comme un sportif de haut niveau quand il visualise mentalement sa performance avant de la réaliser.

Au-delà du jeu, faut imaginer à termes des robots qui s’entraînent dans leur tête avant de manipuler des objets fragiles par exemple. Ou des NPCs dans les jeux vidéo qui apprennent de nouvelles stratégies sans grinder pendant des heures. Même des simulations médicales qui testent des traitements sans expérimentation animale ou humaine… Tout ça et plus encore devient possible avec cette approche.

Et pour info, j’ai demandé à mes enfants et ils m’ont bien confirmé que les diamants dans Minecraft, c’est pas de la tarte. Il faut enchaîner plus de 20 000 actions souris-clavier dans le bon ordre… couper du bois, fabriquer des outils, miner des ressources spécifiques, éviter les dangers, descendre dans les profondeurs. C’est l’un des objectifs les plus complexes du jeu, et Dreamer 4 y arrive sans jamais avoir interagi avec l’environnement réel.

Voilà, si ça vous intéresse, sachez que tout est détaillé dans ce document sur arXiv si vous voulez creuser. Mais l’idée principale est simple : Et si l’imagination était plus efficace que la mise pratique ? On dirait que c’est une sorte de loi de l’attraction appliquée aux machines…

Bref, pendant qu’on se demande si l’IA va nous piquer nos jobs, elle, elle apprend à faire des trucs sans y toucher…

GitType - Le jeu qui vous fait retaper votre propre code (pour redevenir bon !!)

Par :Korben
3 octobre 2025 à 07:10

Vous savez ce moment où vous regardez votre historique Git et vous vous demandez qui est le débile qui a écrit ce code dégueulasse ?

Ah bah ouais, c’était vous il y a 3 mois ^^. Eh bien GitType a trouvé la meilleure des thérapies qui est de vous faire retaper tout ça, lettre par lettre, comme une punition de primaire version développeur, totalement gamifiée avec des points, un chrono, et la possibilité de mesurer à quel point vos doigts sont devenus flasques depuis que Copilot fait tout le boulot à votre place.

Le tagline du projet, c’est “Show your AI who’s boss: just you, your keyboard, and your coding sins”. Et c’est pas une blague, c’est un manifeste car pendant que Copilot, ChatGPT, Claude Code et compagnie écrivent du code à notre place, GitType vous fait faire exactement l’inverse… il vous force à retaper du code pour redevenir bon !

Et contrairement aux tests de frappes classiques comme Ttyper ou tt qui vous font taper du texte générique, GitType utilise du VRAI code source. Votre code, celui de vos repos préférés, ou des repos trending de GitHub. Comme ça, vous ne vous entraînez pas sur du “ the quick brown fox jumps over the lazy dog ” à la con, mais sur vos propres merdes spaghettico-syntaxiques en Rust, TypeScript, Python ou Go.

Le jeu vous propose plusieurs modes. Y’a le mode Normal pour vous échauffer tranquillement, le Time Attack quand vous voulez vous mettre la pression, et des niveaux de difficulté de Easy à Zen pour ceux qui veulent méditer en tapant du code. Le tout avec un tracking en temps réel de votre WPM (words per minute) et de votre précision. Comme ça, plus vous progressez, plus vous montez dans le ranking avec des titres de développeur qui évoluent.

GitType supporte plus de 15 langages de programmation et propose plus de 15 thèmes visuels en mode Dark ou Light, avec possibilité de personnaliser le vôtre. L’installation est simple…

curl -sSL https://raw.githubusercontent.com/unhappychoice/gittype/main/install.sh | bash

Ou via Brew, ou avec un téléchargement direct de binaires. Ça prend 30 secondes chrono. Autre truc sympa aussi, vous pouvez cloner n’importe quel repo GitHub directement depuis le jeu pour vous entraîner dessus.

Comme ça, vous pourrez réaliser votre fantasme le plus humide, à savoir retaper le code de Linus Torvalds !

Cet outil va comme ça l’air de rien vous réapprendre à taper du code vous même, parce que faut bien le reconnaitre, depuis que tout le monde s’est mis au vibe coding, c’est difficile de dire à nos doigts et nos cerveaux de s’y remettre. Avec GitType, vos doigts retrouvent leurs réflexes, vous mémorisez mieux la syntaxe, vous devenez plus rapide au clavier, votre haleine redevient fraiche et vous chopez enfin des matchs sur Tinder, c’est SÛR !!

Ce projet est dispo en open-source sous licence MIT et franchement, vu comment nos IA nous assistent de partout, c’est pas plus mal de garder un peu de muscle mémoire au cas où…

Source

Genkit Go 1.0 : Google lance un framework open source pour propulser l’IA avec le langage Go

Google vient de franchir une nouvelle étape stratégique dans le développement de l’intelligence artificielle en annonçant Genkit Go 1.0, un framework open source destiné aux développeurs Go souhaitant créer des applications IA prêtes pour la production. Avec cette version stable, dévoilée en septembre 2025, Google veut marier la performance du langage Go avec les exigences modernes […]

L’article Genkit Go 1.0 : Google lance un framework open source pour propulser l’IA avec le langage Go est apparu en premier sur BlogNT : le Blog des Nouvelles Technologies.

OpenAI Codex : Fini l’écriture, l’avenir du code est-il de simplement le décrire ?

Imaginez pouvoir dire : « Crée un site web responsive avec un formulaire de contact et une galerie »… et voir le code apparaître, fonctionnel, prêt à l’emploi. Ce n’est pas un rêve de science-fiction, mais bien la réalité que Codex, le modèle de génération de code d’OpenAI, rend possible. Basé sur la puissante architecture GPT-5, Codex est en […]

L’article OpenAI Codex : Fini l’écriture, l’avenir du code est-il de simplement le décrire ? est apparu en premier sur BlogNT : le Blog des Nouvelles Technologies.

💾

I wanted to see just how powerful the new AI coding tools are, so I put them to the ultimate test. Using just a single prompt, I had OpenAI's new GPT-5-Codex...

OpenAI Sora - Obligés d'opt-out pour protéger vos droits

Par :Korben
1 octobre 2025 à 13:22

OpenAI vient de lancer Sora 2 , son générateur de vidéos par IA et le truc, c’est que si vous êtes créateur de contenu, vous devez opt-out manuellement pour éviter que vos œuvres servent à entraîner le modèle. Pas d’opt-in par défaut, pas de respect automatique du droit d’auteur. C’est à vous de faire la démarche pour dire non.

Selon Cartoon Brew , la politique d’OpenAI oblige donc les détenteurs de droits à signaler chaque violation spécifique. Pas de formulaire global genre “je refuse que vous utilisiez mes trucs”. Non, vous devez rapporter chaque contenu un par un si vous le trouvez dans les datasets d’entraînement…

Le problème, c’est que personne sait vraiment ce qu’OpenAI a utilisé pour entraîner Sora. Il y a des rumeurs sur l’utilisation massive de vidéos YouTube, de contenus de jeux vidéo, de films, mais OpenAI reste hyper flou sur les sources. Du coup, comment vous voulez opt-out de quelque chose dont vous ignorez l’existence dans leur base de données d’entrainement ?

Et malheureusement, cette approche opt-out est la norme chez les géants de l’IA… Meta, Google, OpenAI, tous adoptent le même principe qui est on prend d’abord, et vous vous opposez après si vous avez le courage. Le fardeau de la preuve et de la protection repose donc sur les créateurs, et pas sur les entreprises qui exploitent les contenus. De quoi faire encore grincer des dents !

Maintenant, pour les personnalités publiques, OpenAI a mis en place un système de cameo … Cela veut dire que si quelqu’un veut générer une vidéo avec votre visage ou votre voix, il faut votre permission explicite. C’est un début, mais ça ne couvre que les cas évidents… Il n’y a rien de tel par exemple pour les styles artistiques, les techniques de réalisation, les univers visuels créés par des artistes et j’en passe…

Bref, les experts juridiques commencent donc à s’inquiéter car ce modèle d’opt-out pose des problèmes de droit d’auteur majeurs, surtout dans des pays comme la France où le droit moral est inaliénable. Vous ne pouvez pas par exemple renoncer à vos droits d’auteur même si vous le voulez. Donc comment une politique opt-out peut-elle être légale alors qu’elle force la main aux créateurs pour abandonner leurs droits par défaut ?

Et la situation devient encore plus complexe avec les contenus sous licence restrictive car des chaînes YouTube ont des CGU qui interdisent l’utilisation commerciale de leurs vidéos et les jeux vidéos ont des EULA qui limitent l’exploitation de leurs assets. Cela veut donc dire que Sora s’assoit sur tout ça en considérant que l’absence d’opt-out équivaut à un consentement.

Pour sa défense, OpenAI nous explique que l’entraînement d’IA relève du fair use aux États-Unis mais le problème, c’est que cette jurisprudence n’existe pas partout. En Europe par exemple, le règlement sur l’IA impose des obligations de transparence et de traçabilité sur les données d’entraînement et OpenAI le sait très bien et joue avec ce flou entre les différentes juridictions.

Puis ce système de signalement proposé par OpenAI est aussi hyper critiquable car c’est, comme je vous l’expliquais, à vous de prouver que votre contenu a été utilisé pour l’entraînement. Mais alors comment faire quand les datasets ne sont pas publics ??? Comment vérifier que Sora a bien appris à partir de vos vidéos si vous n’avez pas accès aux données d’entraînement ???

Certains créateurs envisagent donc déjà des recours collectifs car si OpenAI a effectivement utilisé des millions de vidéos YouTube sans autorisation, ce serait une violation massives du droit d’auteur… Est-ce que développer une IA générative justifie de récupérer tout ce travail créatif humain sans apporter ni compensation ni consentement ?

OpenAI sembler penser que oui et mise sur l’inertie des créateurs et la complexité de ses démarches d’opt-out pour continuer son petit business…

Mais en attendant, si vous voulez protéger vos créations de Sora, vous devez aller sur le site d’OpenAI, trouver le formulaire de signalement , prouver que vous êtes le détenteur des droits, identifier chaque contenu concerné, et espérer qu’OpenAI respecte votre demande.

C’est donc la lose pour les créateurs, c’est sûr. Comme je le disais dans un de mes précédents articles sur le sujet, ce dont on a besoin maintenant c’est de cohérence et de clarté au niveau des lois, car là on discute des détails mais la question du “vol” par ces GAMMO (Google / Anthropic / Meta / Microsoft / OpenAI) n’est pas vraiment tranchée au niveau de la loi. J’ai l’impression que ça traine et que personne n’est pressé de trancher la question car ça arrange bien tout le monde (sauf les créateurs).

GPT-5 Pro est capable de faire de nouvelles découvertes

Par :Korben
29 septembre 2025 à 10:04

Je viens de lire un truc super intéressant sur les nouvelles capacités de nos chers LLM qui devrait changer pas mal de choses aussi bien pour les scientifiques, que les développeurs ou n’importe qui, cherchant à faire du “neuf” avec les IA.

Moran Feldman et Amin Karbasi, deux chercheurs de l’université de Haifa et de Cisco Foundation AI, ont eu l’idée géniale de créer ce qu’ils appellent le “test de Gödel” . Un nom chelou mais qui cache l’idée suivante : est-ce qu’une IA peut résoudre des conjectures mathématiques encore jamais publiées ?

C’est à dire des trucs tellement nouveaux qu’elle ne peut pas les avoir mémorisés pendant son entraînement. Pour tester cela, nos chercheurs ont balancé cinq conjectures (des problèmes d’optimisation combinatoire qu’ils avaient spécialement concoctés pour l’occasion) à GPT-5 Pro, et là, surprise !!!

Sur le deuxième problème, GPT-5 Pro ne s’est pas contenté de chercher une solution. Le modèle a carrément réfuté leur conjecture originale en trouvant une meilleure approche qui, après vérification, s’est avérée correcte.

Et c’est exactement ce que Sebastian Bubeck, passé récemment de Microsoft à OpenAI, a observé aussi de son côté. Il a donné à GPT-5 Pro un problème ouvert d’optimisation convexe, un truc sur lequel les humains planchaient depuis un bon moment… Le modèle a alors réfléchi 17 minutes et a pondu une solution d’optimisation convexe valide et encore jamais trouvée. Bon, entre-temps des humains avaient déjà trouvé plus efficace, mais l’IA n’était pas au courant et a fait sa propre découverte indépendamment.

Les IA commencent donc à développer ce qu’on pourrait appeler un “esprit critique computationnel”. Elles ne se contentent plus de chercher LA solution qu’on leur demande, mais évaluent la pertinence même de la question.

Le test de Gödel révèle d’ailleurs les limites actuelles de façon assez claire car sur les cinq problèmes, GPT-5 Pro en a résolu trois correctement (enfin, presque correctement, avec quelques erreurs mineures). Le quatrième problème, qui nécessitait de combiner des data de deux papiers scientifiques différents a été un échec total. Et pour le cinquième, encore plus complexe, GPT-5 a proposé le même algorithme que les chercheurs avaient en tête mais s’est planté dans son analyse.

Selon l’étude , les preuves incorrectes “paraissaient initialement plausibles et même convaincantes” et ce n’est qu’après un examen détaillé que les failles profondes du raisonnement sont apparues. Comme d’hab, l’IA peut dire de la merde mais avec un tel aplomb qu’on aurait tendance à la croire, un peu comme un politique français qui témoigne sous serment.

Cette année 2025 marque vraiment un tournant dans les maths par IA. L’armée américaine, via la DARPA, a lancé le programme expMath qui vise carrément à créer des “co-auteurs IA” pour les mathématiciens. Des chercheurs de Caltech utilisent l’IA pour s’attaquer à la conjecture d’Andrews-Curtis, un problème de théorie des groupes vieux de 60 ans. Google Deepmind a découvert de nouvelles solutions à des problèmes de dynamique des fluides . Et, GPT-5 décroche même des médailles d’or aux Olympiades Internationales de Mathématiques.

On est bien sûr encore loin de remplacer les mathématiciens par des IA mais on s’approche de plus en plus d’outils capables d’accompagner, de challenger, de contredire ou de reformuler certains problèmes sans forcement recracher la soupe qu’on leur a servi lors de leur entrainement initial. Bref, l’IA semble être capable, en tout cas en maths, de faire preuve d’un peu (un peu seulement !!) de créativité grâce à son analyse de plus en plus fine des problèmes.

Je me demande maintenant si avec GPT-5 Pro, on peut accéder aussi à cet embryon de créativité pour d’autres choses plus quotidiennes, comme du code, ou des problèmes de la vie de tous les jours… Faudra tester !

SSH3 - Un accès SSH plus rapide & sécurisé avec HTTP/3

Par :Korben
28 septembre 2025 à 08:43

Et si je vous disais qu’il existe un futur où vous allez pouvoir vous connecter en SSH à votre serveur de production avec votre compte Google et que celui-ci serait totalement invisible aux yeux du monde ?

Et bien ça arrive bientôt et ça s’appelle SSH3 !

Alors déjà, pas de panique, je vais pas vous sortir le speech classique du “Oh regardez, un nouveau protocole qui va révolutionner le monde”. Non non, l’histoire est beaucoup plus tordue que ça car SSH3, c’est un symptôme d’un phénomène beaucoup plus gros qui est en train de se passer sous notre nez et qui est la “webisation” d’Internet (oui, je viens d’inventer ce mot).

Car pendant que tout le monde s’excitait tous sur ChatGPT et les IA génératives, des chercheurs belges de l’UCLouvain étaient tranquillement en train de planifier la disparition des serveurs SSH de la surface d’Internet. Et je dis bien “disparaître” dans le sens où votre serveur devient invisible aux scans de ports , car votre serveur SSH peut maintenant se planquer derrière ce qui ressemble à un banal site web.

Pour réussir ce tour de magie, SSH3 utilise HTTP/3 et QUIC au lieu du bon vieux protocole SSH traditionnel. Et là vous me dites “Mais Korben, c’est quoi le rapport avec l’invisibilité ?” Bah c’est simple, comme SSH3 tourne sur les mêmes ports que n’importe quel site HTTPS, impossible de distinguer un serveur SSH3 d’un serveur web lambda. Vous pourriez même planquer votre serveur SSH derrière une URL secrète… Tentez ensuite un scan de ports, et vous ne verrez rien de plus qu’un stupide serveur web…

Ce que j’appelle “webisation”, c’est en fait l’absorption totale de l’infrastructure système par les technologies du web. Et même SSH, le protocole le plus fondamental de l’administration système présent depuis 1995, va devoir capituler face à HTTP/3.

C’est la victoire finale du navigateur sur le terminal, et personne n’en cause vraiment… Avec SSH3, vous allez donc pouvoir utiliser vos certificats Let’s Encrypt pour authentifier votre serveur et le GitHub du projet explique que c’est plus sécurisé que les clés d’hôtes SSH classiques car votre terminal vérifiera le certificat comme le fait votre navigateur.

Mais attendez, le délire va encore plus loin puisque OAuth 2.0 et OpenID Connect sont également supportés nativement. Vous allez donc pouvoir vous connecter à votre serveur de prod avec votre compte Google, Microsoft ou GitHub. Et si j’en crois le draft IETF , c’est parfaitement légitime et sécurisé grâce à l’authentification HTTP standard.

Alors évidemment, l’idée de se logger sur un serveur critique avec son compte Gmail, ça peut faire peur mais on fait déjà confiance à ces mêmes providers pour notre authentification partout ailleurs, donc un de plus ou un de moins… Puis j’imagine que vous pourrez aussi mettre en place votre propre provider, ce qui vous permettra d’éviter les GAFAM tout en ayant une gestion plus simple des accès à vos machines.

Au niveau perfs, SSH3 établit une connexion en seulement 3 round-trips contre 5 à 7 pour SSH classique. Sur une connexion avec 100ms de latence, ça fait une différence énorme. Et en bonus SSH3 supporte le port forwarding UDP en plus du TCP. Cela veut dire que vous pouvez enfin “tunneler” du QUIC, du DNS ou du RTP correctement… Ce projet a explosé en décembre 2023 quand François Michel et Olivier Bonaventure ont publié leur papier mais attention, c’est encore expérimental. Les développeurs le répètent partout : Ne mettez pas ça en prod tout de suite !

Alors est-ce qu’on doit s’inquiéter de cette uniformisation des protocoles ?

Peut-être car si tout le monde utilise les mêmes briques de base, une faille dans QUIC ou HTTP/3 pourrait affecter absolument TOUT. Mais d’un autre côté, concentrer les efforts de sécurité sur moins de protocoles, c’est aussi moins de surface d’attaque à surveiller.

Maintenant pour tester SSH3, c’est simple si vous avez Go installé :

go install github.com/francoismichel/ssh3/cmd/...@latest

Ensuite côté serveur, générez votre certificat avec

`ssh3-server -generate-selfsigned-cert localhost`

Et lancez le serveur. Ensuite, côté client, connectez-vous avec

`ssh3 user@server`

SSH3 est aussi rétrocompatible avec pas mal de features OpenSSH… Par exemple le proxy jump fonctionne, les fichiers de config ~/.ssh/config sont parsés, les clés RSA et ed25519 sont supportées. Les dev ont vraiment pensé à faciliter la transition et ça c’est cool !

Après comme je sais que vous n’aimez pas le changement parce que ça réveille en vous de vieux traumatises d’enfance, rassurez-vous, SSH3 n’est pas encore prêt pour remplacer OpenSSH demain matin. Le code n’a pas été audité niveau sécu, les perfs en throughput TCP sont moins bonnes qu’OpenSSH, et il manque encore des fonctionnalités. Mais le concept est là, et il semble très solide !

Ce qui est sûr, c’est que SSH3 ouvre des perspectives assez folles comme cette possibilité d’avoir des serveurs complètement invisibles, accessibles uniquement via des URLs secrètes, avec de l’auth SSO d’entreprise et des certificats standards. C’est un sacré changement de paradigme dans la façon dont on accède à nos machines… Car oui, pourquoi continuer à maintenir des protocoles séparés quand on peut réutiliser les briques modernes du web ? QUIC apporte la fiabilité, TLS 1.3 la sécurité, HTTP/3 la flexibilité.

Alors pourquoi réinventer ou maintenir une vieille roue ?

Bref, c’est un projet à suivre. Tout se passe sur le GitHub de François Michel et les contributions sont les bienvenues, surtout si vous avez des compétences en crypto ou en sécurité réseau.

Source

❌