Vue lecture

SSH3 - Un accès SSH plus rapide & sécurisé avec HTTP/3

Et si je vous disais qu’il existe un futur où vous allez pouvoir vous connecter en SSH à votre serveur de production avec votre compte Google et que celui-ci serait totalement invisible aux yeux du monde ?

Et bien ça arrive bientôt et ça s’appelle SSH3 !

Alors déjà, pas de panique, je vais pas vous sortir le speech classique du “Oh regardez, un nouveau protocole qui va révolutionner le monde”. Non non, l’histoire est beaucoup plus tordue que ça car SSH3, c’est un symptôme d’un phénomène beaucoup plus gros qui est en train de se passer sous notre nez et qui est la “webisation” d’Internet (oui, je viens d’inventer ce mot).

Car pendant que tout le monde s’excitait tous sur ChatGPT et les IA génératives, des chercheurs belges de l’UCLouvain étaient tranquillement en train de planifier la disparition des serveurs SSH de la surface d’Internet. Et je dis bien “disparaître” dans le sens où votre serveur devient invisible aux scans de ports , car votre serveur SSH peut maintenant se planquer derrière ce qui ressemble à un banal site web.

Pour réussir ce tour de magie, SSH3 utilise HTTP/3 et QUIC au lieu du bon vieux protocole SSH traditionnel. Et là vous me dites “Mais Korben, c’est quoi le rapport avec l’invisibilité ?” Bah c’est simple, comme SSH3 tourne sur les mêmes ports que n’importe quel site HTTPS, impossible de distinguer un serveur SSH3 d’un serveur web lambda. Vous pourriez même planquer votre serveur SSH derrière une URL secrète… Tentez ensuite un scan de ports, et vous ne verrez rien de plus qu’un stupide serveur web…

Ce que j’appelle “webisation”, c’est en fait l’absorption totale de l’infrastructure système par les technologies du web. Et même SSH, le protocole le plus fondamental de l’administration système présent depuis 1995, va devoir capituler face à HTTP/3.

C’est la victoire finale du navigateur sur le terminal, et personne n’en cause vraiment… Avec SSH3, vous allez donc pouvoir utiliser vos certificats Let’s Encrypt pour authentifier votre serveur et le GitHub du projet explique que c’est plus sécurisé que les clés d’hôtes SSH classiques car votre terminal vérifiera le certificat comme le fait votre navigateur.

Mais attendez, le délire va encore plus loin puisque OAuth 2.0 et OpenID Connect sont également supportés nativement. Vous allez donc pouvoir vous connecter à votre serveur de prod avec votre compte Google, Microsoft ou GitHub. Et si j’en crois le draft IETF , c’est parfaitement légitime et sécurisé grâce à l’authentification HTTP standard.

Alors évidemment, l’idée de se logger sur un serveur critique avec son compte Gmail, ça peut faire peur mais on fait déjà confiance à ces mêmes providers pour notre authentification partout ailleurs, donc un de plus ou un de moins… Puis j’imagine que vous pourrez aussi mettre en place votre propre provider, ce qui vous permettra d’éviter les GAFAM tout en ayant une gestion plus simple des accès à vos machines.

Au niveau perfs, SSH3 établit une connexion en seulement 3 round-trips contre 5 à 7 pour SSH classique. Sur une connexion avec 100ms de latence, ça fait une différence énorme. Et en bonus SSH3 supporte le port forwarding UDP en plus du TCP. Cela veut dire que vous pouvez enfin “tunneler” du QUIC, du DNS ou du RTP correctement… Ce projet a explosé en décembre 2023 quand François Michel et Olivier Bonaventure ont publié leur papier mais attention, c’est encore expérimental. Les développeurs le répètent partout : Ne mettez pas ça en prod tout de suite !

Alors est-ce qu’on doit s’inquiéter de cette uniformisation des protocoles ?

Peut-être car si tout le monde utilise les mêmes briques de base, une faille dans QUIC ou HTTP/3 pourrait affecter absolument TOUT. Mais d’un autre côté, concentrer les efforts de sécurité sur moins de protocoles, c’est aussi moins de surface d’attaque à surveiller.

Maintenant pour tester SSH3, c’est simple si vous avez Go installé :

go install github.com/francoismichel/ssh3/cmd/...@latest

Ensuite côté serveur, générez votre certificat avec

`ssh3-server -generate-selfsigned-cert localhost`

Et lancez le serveur. Ensuite, côté client, connectez-vous avec

`ssh3 user@server`

SSH3 est aussi rétrocompatible avec pas mal de features OpenSSH… Par exemple le proxy jump fonctionne, les fichiers de config ~/.ssh/config sont parsés, les clés RSA et ed25519 sont supportées. Les dev ont vraiment pensé à faciliter la transition et ça c’est cool !

Après comme je sais que vous n’aimez pas le changement parce que ça réveille en vous de vieux traumatises d’enfance, rassurez-vous, SSH3 n’est pas encore prêt pour remplacer OpenSSH demain matin. Le code n’a pas été audité niveau sécu, les perfs en throughput TCP sont moins bonnes qu’OpenSSH, et il manque encore des fonctionnalités. Mais le concept est là, et il semble très solide !

Ce qui est sûr, c’est que SSH3 ouvre des perspectives assez folles comme cette possibilité d’avoir des serveurs complètement invisibles, accessibles uniquement via des URLs secrètes, avec de l’auth SSO d’entreprise et des certificats standards. C’est un sacré changement de paradigme dans la façon dont on accède à nos machines… Car oui, pourquoi continuer à maintenir des protocoles séparés quand on peut réutiliser les briques modernes du web ? QUIC apporte la fiabilité, TLS 1.3 la sécurité, HTTP/3 la flexibilité.

Alors pourquoi réinventer ou maintenir une vieille roue ?

Bref, c’est un projet à suivre. Tout se passe sur le GitHub de François Michel et les contributions sont les bienvenues, surtout si vous avez des compétences en crypto ou en sécurité réseau.

Source

  •  

SimpleFold - Un labo de biologie moléculaire qui tourne sur un simple Macbook Pro

Apple vient de sortir un truc énorme et je pense que personne n’a encore capté cette folie. Leur équipe de recherche en machine learning a publié SimpleFold , un modèle d’IA pour prédire la structure des protéines. Jusque-là, rien de révolutionnaire me direz-vous car AlphaFold de Google fait déjà ça très bien, sauf que… SimpleFold, lui, tourne sur votre MacBook Pro !

Maintenant, je vais vous expliquer pourquoi c’est complètement dingue. D’après l’article de recherche d’Apple , SimpleFold atteint 95% des performances d’AlphaFold2 tout en étant infiniment plus léger. En effet, AlphaFold nécessite des supercalculateurs avec des GPU à 20 000 balles pièce alors SimpleFold, lui tourne tranquille sur un MacBook Pro M2 avec 64GB de RAM.

Pour réaliser cet exploit, au lieu d’utiliser les modules super complexes d’AlphaFold comme la méthode du triangle attention ou les MSA ( Multiple Sequence Alignments ), SimpleFold utilise une technique appelée “flow-matching” avec des transformers basiques. Pour rappel, flow matching ça permet de générer des données (souvent des images ou du texte), à partir de bruit aléatoire…

Ils ont donc échangé le moteur de Formule 1 utilisé par des outil comme Alphafold par un moteur de Twingo bien générique et arrivent à atteindre la même vitesse.

Les chercheurs d’Apple ont pour cela entraîné 6 versions différentes de SimpleFold, de 100 millions à 3 milliards de paramètres. Et même la plus petite version (100M) atteint 90% des performances d’ ESMFold sur les benchmarks CAMEO22.

Et c’est super cool parce que prédire la structure d’une protéine, c’est pas juste un truc de geek pour s’amuser. C’est LA base pour créer de nouveaux médicaments, comprendre des maladies, développer des vaccins… Jusqu’à présent, seuls les gros labos avec des budgets de malade pouvaient se permettre de faire ça, c’est pourquoi SimpleFold change complètement la donne en rendant cette technologie accessible à n’importe quel chercheur avec un MacBook.

Un chercheur indépendant peut maintenant découvrir de nouvelles molécules depuis son canapé… Chapeau Apple pour démocratiser cette partie de la recherche scientifique !

Le plus drôle dans tout ça, c’est qu’Apple a entraîné SimpleFold sur 8,6 millions de structures protéiques, ce qui en fait donc le plus gros modèle de folding jamais créé, avec 3 milliards de paramètres pour la version complète. Maintenant pour l’installer, c’est super simple. Le repo GitHub montre que vous aurez juste besoin de Python 3.10 et que ça supporte PyTorch ou MLX (le framework d’Apple pour les puces Silicon).

Et voilà, en 5 minutes, vous avez un labo de biologie moléculaire totalement open source sur votre machine !

Yuyang Wang et son équipe ont donc prouvé que pour prédire les structures protéiques, pas besoin de réinventer la roue. Des transformers classiques avec du flow-matching, et ça marche ! Imaginez des lycéens qui découvrent de nouvelles molécules pour leur TPE, des startups biotech qui se lancent depuis un garage (littéralement), des pays en développement qui peuvent enfin faire de la recherche de pointe sans investir des millions dans l’infra…

Apple vient de casser un petit peu le monopole de la big pharma sur la recherche moléculaire.

C’est top non ?

  •  

L'API qui manquait à Ollama pour concurrencer ChatGPT est enfin là !!

Ce qui est super relou avec les IA qu’on peut utiliser en local, genre avec Ollama, c’est que si on lui demande des infos un peu trop récente, ça nous sort des vieux chiffres de 2023 avec la confiance d’un vendeur de voitures d’occasion. Bon bah ça, c’est fini puisqu’ Ollama vient de sortir une API de recherche web qui permet enfin à vos modèles locaux d’accéder à des infos fraîches dispo sur le net.

Woohoo \o/ !

Baptisée Ollama Web Search, cette API REST permet donc à vos modèles de faire des recherches sur le web en temps réel comme ça plus besoin de se contenter des données d’entraînement figées dans le temps. Selon la doc officielle , l’API fournit “les dernières informations du web pour réduire les hallucinations et améliorer la précision”. En gros, votre IA locale devient aussi à jour que ChatGPT, mais sans envoyer vos données perso à OpenAI.

Les modèles compatibles avec cette nouvelle fonctionnalité incluent qwen3, LLama, gpt-oss (la version open source d’OpenAI), deepseek-v3.1, et plein d’autres. Et d’après les premiers tests de la communauté , qwen3 et gpt-oss sont même plutôt doués pour exploiter cette fonctionnalité. Le modèle comprend qu’il lui manque une info, fait sa recherche, analyse les résultats et nous sort une réponse documentée !

C’est trop incrrrr ! Vous allez pouvoir booster vos scripts / bots / outils d’IA locale pour qu’ils puissent surveiller des choses dispo en ligne, les comparer, générer des résumés à partir de sites web, fact checker ou compléter des infos…etc.

Mais alors comment s’en servir ? Bon, on est vendredi soir et j’ai la flemme de tourner un tuto vidéo, donc même si je risque de détailler tout ça bientôt à mes Patreons d’amour , voici quand même quelques explications.

D’abord, il faut créer une clé API Ollama . La doc explique que vous avez un essai gratuit généreux pour commencer, mais s’il vous en faut plus, il faudra prendre un petit abonnement Ollama Cloud

Une fois votre clé en poche, exportez-la dans votre environnement comme ceci :

export OLLAMA_API_KEY="votre_clé_ici"

Le plus simple ensuite pour tester, c’est avec curl :

curl https://ollama.com/api/web_search \ --header "Authorization: Bearer $OLLAMA_API_KEY" \ -d '{ "query": "dernières vulnérabilités CVE janvier 2025" }'

Mais bon, soyons honnêtes, on va plutôt utiliser Python car c’est quand même plus cool ;-) . Voici donc un exemple de script basique qui compare une réponse avec et sans recherche web :

import ollama
from ollama import chat, web_search, web_fetch

model = "qwen3:4b"

# 1. Sans recherche web
response_classic = chat( # pas ollama.chat
 model=model,
 messages=[{
 "role": "user",
 "content": "Quelles sont les features de React 19?"
 }]
)
print("Sans recherche web:", response_classic.message.content[:500]) # .message.content

# 2. Avec recherche web
search_results = web_search("React 19 features dernières nouveautés")
print("Résultats:", search_results)

# 3. Avec outils
available_tools = {'web_search': web_search, 'web_fetch': web_fetch}
messages = [{
 "role": "user",
 "content": "Utilise la recherche web pour me dire les dernières features de React 19"
}]

response_with_tools = chat(
 model=model,
 messages=messages,
 tools=[web_search, web_fetch],
 think=True
)

# Accès aux tool_calls
if response_with_tools.message.tool_calls:
 for tool_call in response_with_tools.message.tool_calls:
 function_to_call = available_tools.get(tool_call.function.name)
 if function_to_call:
 args = tool_call.function.arguments
 result = function_to_call(**args)
 print(f"Outil utilisé: {tool_call.function.name}")
 print(f"Résultat: {str(result)[:500]}...")

print("Réponse finale:", response_with_tools.message.content)

Les performances varient ensuite selon les modèles. Qwen3:4b est parfait pour du temps réel avec environ 85 tokens/seconde. GPT-OSS:120b est plus lent mais donne des résultats de qualité idéaux pour de la production. Pour du dev local, je vous recommande qwen3:8b, c’est le bon compromis entre vitesse et intelligence.

Le truc cool, c’est que vous pouvez maintenant créer des agents spécialisés. Genre un agent DevOps qui surveille les CVE de vos dépendances, un agent Marketing qui analyse les tendances de votre secteur, ou un agent Support qui maintient une base de connaissances à jour.

Voici un exemple :

import ollama
from ollama import chat, web_search

class SecurityAgent:
 def __init__(self):
 self.model = "qwen3:4b"

 def check_vulnerabilities(self, technologies):
 rapport = "🛡️ RAPPORT SÉCURITÉ\n\n"

 for tech in technologies:
 # Recherche directe des CVE récentes
 results = web_search(f"{tech} CVE vulnerabilities 2025 critical")

 # Demande au modèle d'analyser
 response = chat(
 model=self.model,
 messages=[{
 "role": "user",
 "content": f"Résume les vulnérabilités critiques de {tech}: {results}"
 }]
 )

 rapport += f"### {tech}\n{response.message.content}\n\n"

 return rapport

# Utilisation
agent = SecurityAgent()
rapport = agent.check_vulnerabilities(["Node.js", "PostgreSQL", "Docker"])
print(rapport)

Maintenant, pour optimiser un peu tout ça et ne pas flamber votre quota API, voici quelques astuces assez classiques… D’abord, mettez en cache les résultats. Ensuite, soyez spécifique dans vos requêtes. Par exemple “React hooks” va chercher plein de trucs inutiles, alors que “React 19 nouveaux hooks useActionState” sera plus efficace.

On peut vraiment réduire la quantité de requêtes en étant malin sur le prompt engineering. Par exemple, au lieu de laisser le modèle chercher tout seul, guidez-le : “Vérifie uniquement sur la doc officielle de React” plutôt que “Cherche des infos sur React”.

Et comme Ollama supporte MCP Server, Cline, Codex et Goose, c’est royal car vous pouvez aussi brancher votre assistant IA directement dans votre IDE, Slack, ou Discord. Hé oui, vous allez enfin pouvoir coder un bot Discord qui va fact-checker automatiquement les affirmations douteuses et foireuses de vos collègues. Le rêve !

Pour aller plus loin, vous pouvez aussi combiner la recherche web avec le fetching de pages spécifiques. L’API web_fetch permet ainsi de récupérer le contenu d’une URL précise. Pratique pour analyser en profondeur une doc ou un article :

from ollama import web_search, web_fetch, chat

# 1. Recherche d'articles pertinents
search_results = web_search("React 19 vs Vue 3 comparison 2025")
top_url = search_results.results[0]['url'] # ou .url selon le type
print(f"📰 Article trouvé: {search_results.results[0]['title']}")

# 2. Récupération du contenu complet de la page
page_content = web_fetch(top_url)
print(f"📄 {len(page_content.content)} caractères récupérés")

# 3. Analyse approfondie du contenu
response = chat(
 model="qwen3:4b", # ou "gpt-oss" si disponible
 messages=[{
 "role": "user",
 "content": f"""
 Analyse cette comparaison technique:
 {page_content.content[:4000]}

 Donne-moi:
 1. Les points clés de chaque framework
 2. Le gagnant selon l'article
 3. Les cas d'usage recommandés
 """
 }]
)

print(f"\n🔍 Analyse:\n{response.message.content}")

Alors bien sûr, des fois la recherche retournera des trucs pas pertinents, surtout si votre requête est vague et de son côté, le modèle peut aussi mal interpréter les résultats s’il est trop petit. Mais bon, comparé à une IA qui vous sort que Windows 11 n’existe pas encore, on a fait quand même pas mal de chemin, vous ne trouvez pas ??

J’espère qu’à terme, Ollama ajoutera aussi le support de sources personnalisées car ce serait vraiment cool de pouvoir indexer par exemple sa propre doc ou ses propres emails pour y faire des recherches… Mais bon, en attendant cette nouvelle API permet enfin de contrebalancer ce problème des modèles pas à jour en terme de connaissances, et ça c’est déjà énorme !

A vous de jouer maintenant !

Source

  •  

Lue - Lisez vos ebooks en audio dans le terminal

Pour en avoir testé quelques uns, je trouve que les lecteurs de livres audio, c’est jamais très pratique à utiliser. Heureusement, je viens de découvrir Lue , un lecteur d’e󠄳󠅕󠄐󠅤󠅕󠅨󠅤󠅕󠄐󠅕󠅣󠅤󠄐󠅣󠅟󠅥󠅣󠄐󠅓󠅟󠅠󠅩󠅢󠅙󠅗󠅘󠅤󠄐󠅔󠅕󠄐󠄻󠅟󠅢󠅒󠅕󠅞󠄞󠅙󠅞󠅖󠅟books qui lit vos livres à voix haute directement dans le terminal.

Bah oui, moi j’adore mon terminal.. Pas besoin de cliquer, pas d’interface laggy, pas de pub ni d’abonnement premium… On lance juste une commande et hop, la lecture du livre se lance. C’est ça que j’aime, quand la tech me fout la paix et fonctionne bien !

Le truc cool avec Lue, c’est que l’outil utilise Edge TTS de Microsoft par défaut. Oui, Microsoft qui fait un truc bien et gratuit, c’est foufou, mais en gros, ça permet de récupérer les voix ultra réalistes utilisées dans Edge sans payer un centime et sans même avoir Windows. Après si vous êtes un parano de la vie privée, vous pouvez aussi utiliser Kokoro TTS qui tournera à 100% en local sur votre machine.

Pour installer Lue, il vous faut d’abord FFmpeg, espeak et Antiword. Sous Mac c’est donc brew install ffmpeg espeak antiword``, et sous Linux sudo apt install ffmpeg espeak antiword, et sous Windows… bah vous allez sur le site de FFmpeg, espeak et antiword et vous galérez un peu comme d’hab.

Et après, c’est tout simple :

pip install git+https://github.com/superstarryeyes/lue.git

Et voilà, vous êtes prêts à transformer votre terminal en studio d’enregistrement de livres audio. Pour lancer la lecture d’un bouquin, c’est aussi simple que :

lue votre-livre.epub

Perso, j’aime beaucoup la synchronisation mot par mot que permet l’outil… Car pendant que la voix lit, le texte se surligne en temps réel dans le terminal. C’est hypnotisant, on dirait un karaoké pour rats de bibliothèques. Après vous pouvez mettre en pause avec p, ajuster la vitesse de lecture, naviguer dans les phrases avec j et k. C’est comme vim mais pour les oreilles.

Alors je sais que le TTS c’est pas toujours foufou, mais je vous invite à en tester plusieurs pour trouver celle qui vous plait le plus. Moi ma préférée, c’est fr-CH-ArianeNeural qui est hyper propre et assez classe. Vous pouvez lancer une lecture avec la voix comme ceci :

lue --voice "fr-CH-ArianeNeural" livre.epub

Voici la liste complète des voix disponibles que vous pouvez utiliser :

  • fr-BE-CharlineNeural (Female) - Belgique
  • fr-BE-GerardNeural (Male) - Belgique
  • fr-CA-AntoineNeural (Male) - Canada
  • fr-CA-JeanNeural (Male) - Canada
  • fr-CA-SylvieNeural (Female) - Canada
  • fr-FR-DeniseNeural (Female) - France
  • fr-FR-EloiseNeural (Female) - France
  • fr-FR-HenriNeural (Male) - France
  • fr-CH-ArianeNeural (Female) - Suisse
  • fr-CH-FabriceNeural (Male) - Suisse

Et Lue lit vraiment tout : EPUB, PDF, TXT, DOCX, HTML, RTF, et même le Markdown. La lecture PDF c’est particulièrement bien foutue parce qu’il retire automatiquement les numéros de page et les en-têtes qui pourrissent toujours la lecture audio.

Voilà, Lue c’est un coup de cœur car on commence vraiment à s’habituer à des services IA avec des technologies de synthèse vocale qui rivalisent avec des vrais humains, mais c’est souvent caché derrière des APIs payantes et des interfaces merdique. Et là arrive un développeur qui dit “non mais attendez, c’est quoi ce bordel ?? Je vais vous faire un truc simple qui marche”.

Et hop !

La progression de lecture est même sauvegardée automatiquement. Vous fermez votre terminal en plein milieu du chapitre 12, vous relancez le lendemain, et hop, ça reprend pile où vous en étiez. Très cool, hein ?

Bref, si vous êtes du genre à préférer la ligne de commande aux interfaces clinquantes, ou si vous voulez juste écouter vos ebooks sans vous prendre la tête, allez tester Lue dispo sur GitHub .

Source

  •  

SSH Pilot - Un super gestionnaire de connexion SSH pour Linux / macOS

Et si je vous disais que pendant que vous galérez avec PuTTY et son interface à la Windows 95, ou que vous payez 119 balles pour SecureCRT, il existe un gestionnaire SSH moderne, gratuit et absolument magnifique qui attend tranquillement que quelqu’un le remarque ?

Hé bien c’est exactement ce qui se passe avec SSH Pilot dispo pour Linux et macOS, et je trouve ça vraiment bizarre que personne n’en parle. Quand je suis tombé dessus, c’est vrai que j’ai cru à un énième fork de Terminator ou un wrapper autour de tmux, mais non, c’est un vrai gestionnaire de connexions SSH développé par mfat , avec une interface moderne en libadwaita/GTK4, c’est à dire le truc le plus propre que GNOME ait sorti ces dernières années.

Alors j’ai creusé un peu, je l’ai installé, et là, révélation. Cette appli fait TOUT ce qu’on attend d’un gestionnaire SSH moderne : des onglets pour jongler entre les connexions, un gestionnaire SFTP intégré qui s’ouvre direct dans Nautilus, la génération de paires de clés en deux clics, le port forwarding (local, remote, dynamic), et même le regroupement de serveurs pour ceux qui gèrent des “fermes” entières. Ah et toutes les infos de config sont chiffrées sur votre disque dur.

On peut aussi naviguer entièrement au clavier dans l’appli, ce qui est super pratique. Ctrl+L pour passer de la liste des serveurs au terminal, Ctrl+F4 pour fermer un onglet, Alt+flèches pour switcher entre les tabs. C’est tellement bien pensé que ça en devient suspect ^^.

Car quand on gère plusieurs serveurs, on s’y perd vite si on n’est pas organisé ! On jongle avec des dizaines de connexions SSH, on tape des alias bash à rallonge, on installe des extensions tmux incompréhensibles…

Alors pourquoi SSH Pilot reste si peu connu alors qu’il est trop méga super génial ??? Hé bien j’ai ma petite théorie…

Dans le monde Linux, on a tellement d’alternatives pour chaque truc qu’on finit par se noyer. Quand on cherche un client SSH, on a PuTTY, KiTTY, SuperPuTTY, mTPuTTY, Solar-PuTTY, Bitvise, Tabby, MobaXterm, Termius, SecureCRT… et j’en passe. Trop de choix qui tue le choix !

Bref, jetez un oeil SSH Pilot, ça vous changera des client SSH avec une interface de Minitel.

  •  

8 outils indispensables pour le codeur débutant : le guide

Nouvelle rentrée, nouvelles résolutions ! Tu veux te mettre sérieusement au code, devenir le codeur de demain, mais face à la multitude d’outils existants, tu te demandes lesquels sont vraiment essentiels pour progresser sans te perdre. Bonne nouvelle : voici une sélection des 8 types d’outils incontournables que tout débutant doit connaître pour coder efficacement. 8. Notebooks: vos […]

L’article 8 outils indispensables pour le codeur débutant : le guide est apparu en premier sur BlogNT : le Blog des Nouvelles Technologies.

  •  

MedGPT - L'IA préférée des hypocondriaques

Enfin !!

Oui, enfin, on a une IA médicale française, développée par Synapse Medicine une startup bordelaise, qui va pouvoir confirmer que votre petit mal de tête est bien un cancer du cerveau en phase terminale, exactement comme vous l’aviez lu sur Doctissimo à 3h ce matin après avoir cliqué sur 47 pages de forums où “MoiMêmeJeSais” raconte qu’elle a failli mourir avec les mêmes symptômes.

Cela s’appelle MedGPT et attention, avant que vous ne commenciez à lui demander si votre bubon de sorcière sur le nez est un mélanome, sachez que cet outil est réservé aux professionnels de santé. Médecins généralistes, spécialistes, pharmaciens, infirmiers, sages-femmes… Bref, tous ceux qui ont encore la chance d’avoir un boulot dans notre beau pays riche et développé où 87% du territoire est considéré comme un désert médical .

Hé oui les parisiens, il y a environ 6 millions de Français qui n’ont pas de médecin traitant et dans certaines régions, il faut attendre jusqu’à 1 an pour voir un spécialiste. Du coup, on en est réduit à faire du diagnostic sauvage sur internet ou à prendre un vol Ryanair pour se faire soigner en Belgique ou en Roumanie où ils ont encore des médecins disponibles. Mais bon, revenons à nos moutons numériques…

Selon les concepteurs de MedGPT , leur IA s’appuie sur plus de 50 sources officielles françaises : la Haute Autorité de Santé, l’ANSM, la base Thériaque… Contrairement à ChatGPT qui pourrait vous conseiller de prendre de l’hydroxychloroquine / Ivermectine / azithromycine pour soigner votre Covid parce qu’il est complétement con, MedGPT, lui, utilise uniquement des données médicales françaises validées par la science et les professionnels de santé.

Ils lui ont même fait passer l’ECN 2023 (le concours de médecine) et MedGPT a réussi à se classer dans le top 500 , alors que ChatGPT végète autour de la 2000ème place… Bon, ça reste moins bien qu’un vrai étudiant en médecine (quoique pour les internes aux urgences, j’suis moyen sûr), mais c’est déjà mieux que la moitié des candidats humains.

Et rassurez-vous, less données sont hébergées en France, respectent le RGPD et les normes HDS (Hébergement de Données de Santé). Quand on sait que 66% des médecins américains et 20% des britanniques utilisent déjà ChatGPT pour leur boulot , malgré les risques de fuites de données et de recommandations foireuses… J’suis content que les Français qui étaient coincés entre utiliser un truc pas adapté ou se passer de l’IA, ont maintenant leur solution souveraine.

Alors pour l’instant, MedGPT est en bêta gratuite et limitée à 5 questions par jour. Oui, 5 questions, c’est le nombre de symptômes différents que vous pouvez googler avant de vous convaincre que vous avez la peste bubonique mais bon, après avec un petit VPN, vous pouvez contourner la limite. Notez aussi que l’IA peut faire également des erreurs, donc fiez-vous toujours à votre jugement, à la science et à votre médecin.

C’est gratuit pour le moment, alors autant en profiter avant que ça devienne payant comme tout le reste et qui sait, peut-être qu’un jour on aura une IA capable de faire les ordonnances directement… Woohoo \o/.

Bon, je vous laisse, je vais aller vérifier sur Doctissimo si ma fatigue après avoir écrit cet article n’est pas un symptôme lié à une “dermatite irritative de la région périnéale” ^^.

Merci à Lorenper pour m’avoir fait découvrir cette pépite !

  •  

TernFS - Un système de fichiers distribué capable de gérer des exaoctets

Et encore un article un peu technique pour finir la journée en beauté ! Si je vous disais que votre serveur Linux pouvait gérer 10 exaoctets de données sans broncher ? Vous ne me croiriez pas je pense… D’ailleurs c’est quoi 10 exaoctets ?? Et bien ça correspond à 10 millions de To. C’est pas mal hein ?

Hé bien c’est exactement ce que permet de gérer TernFS, le système de fichiers qu’XTX Markets vient de libérer après trois ans d’utilisation intensive. XTX Markets est une boîte d’algo-trading qui brasse 250 milliards de dollars par jour et j’avoue que c’est un joli cadeau de presque-Noël qu’elle vient de nous faire…

D’après ce qu’ils expliquent sur leur site , NFS et les autres solutions classiques ne tenaient plus la charge face à leurs 650 pétaoctets de données utilisées leur machine learning. Alors ils ont fait ce que font les vrais geeks, ils ont codé leur propre solution… et après trois ans de production sans perdre “un seul octet”, ils ont tout balancé en en open source sur GitHub .

Le truc génial avec TernFS, c’est qu’il a été pensé pour les fichiers immuables, vous savez, ces gros datasets de plusieurs gigaoctets qu’on écrit une fois et qu’on relit des milliers de fois pour entraîner des modèles. Pas de modification après création, pas de prise de tête avec les locks et la cohérence. C’est simple et efficace.

L’architecture repose sur quatre composants principaux qui bossent ensemble : les metadata shards (256 shards logiques pour gérer les métadonnées), le CDC (Cross-Directory Coordinator) pour les opérations entre répertoires, les block services pour stocker les données, et un registry pour orchestrer tout ce petit monde. Le tout communique en UDP/TCP avec du Reed-Solomon pour l’erasure coding et du CRC32-C pour vérifier l’intégrité. Bref, ça semble être du solide.

Et les chiffres qu’ils donnent sur leur production sont assez dingues. Ils parlent de 500+ pétaoctets répartis sur 30 000 disques durs et 10 000 SSD, dans 3 datacenters différents, avec des débits qui montent à plusieurs téraoctets par seconde en vitesse de pointe. Et leur système gère ça tranquille, avec du multi-région natif et une tolérance aux pannes qui ferait pâlir d’envie n’importe quel admin sys.

Si ça vous chauffe, pour installer TernFS, c’est du classique. Vous clonez le repo, vous lancez ./build.sh alpine ou ./build.sh ubuntu selon votre distrib, et c’est parti. Il y a un module kernel Linux pour gratter les perfs maximales et toucher les étoiles, mais vous pouvez aussi utiliser FUSE si vous préférez rester en userspace. Ils ont même implémenté une API S3 pour ceux qui veulent migrer depuis AWS sans tout réécrire.

git clone https://github.com/XTXMarkets/ternfs
cd ternfs
./build.sh alpine
# Et pour tester en local
./scripts/ternrun

Par contre, attention aux limitations ! Car TernFS n’est pas du tout fait pour les petits fichiers (genre les millions de fichiers de 1KB d’un projet Node.js). C’est vraiment optimisé pour du gros volume du style datasets ML, logs d’applications, archives, ce genre de trucs. Et y’a pas de système de permissions intégré non plus, car ils ont préféré garder ça basique et laisser chacun implémenter sa propre couche de sécurité.

Ils ont mis au point également un système de “block proofs” où chaque bloc de data a une preuve cryptographique qui permet de vérifier que le client n’a pas corrompu les données avant de les écrire. Ça évite qu’un client bugué ou malveillant ne pourrisse tout le filesystem. Ils ont aussi un système de “scrubbing” automatique qui détecte et remplace les secteurs défaillants sur les disques.

Chouette non ?

D’après Bloomberg , XTX Markets investit actuellement 1 milliard d’euros dans de nouveaux datacenters en Finlande. Avec leurs 25 000 GPUs (dont 10 000 A100 et 10 000 V100) et maintenant TernFS en open source, ils montrent surtout qu’ils ne rigolent pas avec l’infrastructure. C’est pas pour rien qu’ils arrivent à traiter un trillion d’enregistrements par jour pour leurs algos de trading.

Leur code est disponible sous double licence à savoir GPLv2+ pour le core et Apache 2.0 avec exception LLVM pour les bibliothèques client et les définitions de protocole. Ça permet d’intégrer TernFS dans à peu près n’importe quel projet, commercial ou non.

Bref, si vous gérez des pétaoctets de données et que ZFS commence à tirer la langue, TernFS vaut vraiment le coup d’œil. Reste à voir si d’autres géants du big data vont l’adopter ou si ça restera un outil de niche pour les vraiment gros volumes, mais avec l’explosion du Machine Learning et des LLMs, je parie qu’on va en entendre parler de plus en plus…

Source

  •  

Le Multikernel - La prochaine révolution Linux

Et si votre serveur Linux était comme un appart en coloc où tout le monde partage la même cuisine, le même salon, les mêmes chiottes ?? Forcément, ça finit toujours mal avec quelqu’un qui monopolise les toilettes pendant que vous avez une urgence en spray, un autre fait crasher la machine à laver avec ses expérimentations douteuses de voyage dans le temps, et au final personne n’est content.

Hé bien figurez-vous qu’un développeur nommé Cong Wang de Multikernel Technologies vient de proposer une solution radicale qui consiste à donner à chaque processus son propre kernel Linux, avec ses propres core CPU, comme des colocataires qui auraient enfin chacun leur studio…

Selon le patch soumis sur la Linux Kernel Mailing List (LKML), cette architecture “multikernel” permettrait de faire tourner plusieurs noyaux Linux indépendants sur la même machine physique. C’est pas vraiment de la virtualisation classique façon VMware ou KVM, mais c’est plutôt comme si vous découpiez votre ordinateur en tranches et que chaque tranche vivait sa vie. Le truc marrant, c’est que Cong Wang n’est pas un petit nouveau qui débarque avec ses idées folles. Le bonhomme a déjà contribué à plus de 1000 patches au noyau Linux et il maintient le sous-système de traffic control . Autant dire qu’il sait de quoi il parle quand il touche au code du noyau.

D’ailleurs cette idée de séparer les kernels rappelle furieusement le projet Barrelfish que Microsoft Research et l’ETH Zurich avaient lancé il y a quinze ans. À l’époque, ils voulaient traiter l’OS comme un système distribué où chaque core CPU aurait son propre kernel qui communique avec les autres par messages. Sauf que voilà, c’était trop tôt. Les processeurs n’avaient pas assez de cores pour qu’on puisse se permettre ce genre de luxe, et puis franchement, qui avait besoin de ça en 2009 ?

Aujourd’hui avec nos CPU à 128 cores et nos problèmes de sécurité qui explosent, l’idée prend soudainement tout son sens.

Selon Phoronix et les patches sur la LKML, l’implémentation de Wang utilise kexec, ce mécanisme qui permet normalement de redémarrer directement dans un nouveau noyau sans repasser par un reboot. Sauf qu’ici, au lieu de remplacer le noyau existant, on en charge plusieurs qui vont cohabiter. Chaque kernel se voit attribuer ses propres cores CPU et ils communiquent entre eux via un système d’interruptions inter-processeurs (IPI) spécialement conçu pour l’occasion. Et dans les 7 patches proposés en RFC, Wang prévoit des mécanismes de surveillance pour gérer tous ces petits mondes parallèles.

Et pendant que Cong Wang bricolait son multikernel dans son coin, les géants du cloud comme Amazon, Microsoft et Google ont développé en parallèle une technologie appelée KHO ( Kexec HandOver ) qui permet de préserver l’état système lors du changement de kernel. En gros, ils veulent pouvoir mettre à jour le noyau Linux de leurs serveurs sans perdre les VMs qui tournent dessus. Sauf que si le multikernel de Wang fonctionne vraiment, ça pourrait rendre leur stack de virtualisation complètement obsolète.

Car pourquoi s’embêter avec des hyperviseurs complexes quand on peut juste donner à chaque workload son propre kernel ?

Le plus drôle dans tout ça, c’est que Wang admet candidement dans son RFC que pour l’instant, ça marche “que sur sa machine de dev avec des paramètres hardcodés”.

Maintenant si cette techno décolle, on pourrait voir des trucs assez dingues. Genre un kernel temps réel qui gère les processus critiques pendant qu’un kernel classique s’occupe du reste. Ou alors des kernels spécialisés pour différents types de workloads : un pour le machine learning, un pour les bases de données, un pour le réseau. Vous pourriez même imaginer des kernels avec différents niveaux de sécurité du genre un kernel ultra-paranoia pour vos données sensibles et un kernel plus relax pour Netflix. Et le plus beau c’est que si un kernel plante, les autres continuent de tourner tranquillement.

C’est comme avoir plusieurs systèmes de secours intégrés directement dans la machine.

Mais attention, on parle quand même d’une RFC, et pas encore d’un truc prêt pour la prod. La communauté des barbus du noyau va probablement passer des mois à débattre de chaque ligne de code, et c’est tant mieux parce que toucher à l’architecture fondamentale de Linux, c’est pas comme patcher un bug dans Firefox. Si ça merde, c’est potentiellement des millions de serveurs qui partent en vrille.

Au final, que ce patch soit accepté ou pas, ça montre surtout que Linux continue d’évoluer de manière radicale pour toujours aller plus loin ! Et si vous l’évolution de ce projet, tout se passe sur la LKML .

Source

  •  

Microsoft favorise Claude Sonnet 4 dans GitHub Copilot, au détriment de GPT-5

Microsoft introduit une nouvelle fonctionnalité dans Visual Studio Code : la sélection automatique de modèles IA. Cet outil choisira dynamiquement le modèle le plus adapté pour garantir des performances optimales, entre Claude Sonnet 4, GPT-5, GPT-5 mini et d’autres modèles intégrés à GitHub Copilot. Mais un détail attire l’attention : les utilisateurs payants de Copilot s’appuieront principalement sur […]

L’article Microsoft favorise Claude Sonnet 4 dans GitHub Copilot, au détriment de GPT-5 est apparu en premier sur BlogNT : le Blog des Nouvelles Technologies.

  •  

VS Code 1.104 « Eclipse » : la nouvelle mise à jour booste l’IA et la productivité

VS Code continue de s’imposer comme l’éditeur préféré des développeurs. Sa nouvelle version 1.104, baptisée « Eclipse », apporte un lot de nouveautés orientées vers l’IA, la sécurité et l’ergonomie. Que vous utilisiez Copilot ou non, cette mise à jour promet de rendre votre quotidien de dev plus fluide. L’IA devient plus intelligente La grosse nouveauté de cette […]

L’article VS Code 1.104 « Eclipse » : la nouvelle mise à jour booste l’IA et la productivité est apparu en premier sur BlogNT : le Blog des Nouvelles Technologies.

  •  

Delphi-2M - L'IA qui prédit les maladies que vous aurez dans quelques années

Hakuna Matata les amis ! Pas de soucis, pas de stress, pas d’angoisse sur ce qui va arriver, on prend la vie comme elle vient sans inquiétude…

Pas vrai ?

Et bien, Hakuna Matata va se prendre un coup dans la gueule car des chercheurs européens ont créé Delphi-2M, une IA qui peut vous dire exactement quelles maladies vous allez développer dans les 20 prochaines années. C’est donc un modèle GPT modifié (oui, comme ChatGPT, mais en blouse blanche) qui analyse vos données médicales, votre âge, sexe, IMC et habitudes de vie pour prédire l’arrivée ou non de 1258 maladies différentes dans votre life.

Les chercheurs de l’EMBL, du Centre allemand de recherche sur le cancer et de l’Université de Copenhague sont derrière cette petite merveille et ils ont entraîné leur outil sur 400 000 participants de la UK Biobank et validé que ça fonctionnait bien sur 1,9 millions de Danois.

Et vous vous en doutez, Delphi-2M ne fait pas que prédire… Non non, cette IA génère littéralement des “trajectoires de santé synthétiques”. En gros, elle crée des versions virtuelles de vous qui vivent des vies parallèles avec différentes maladies, un peu comme un multivers médical personnel.

L’outil peut ainsi générer des millions de ces vies synthétiques, créant des données médicales qui n’ont jamais existé mais qui sont statistiquement cohérentes.

Le nom Delphi-2M n’est pas non plus anodin. C’est en clin d’oeil à l’oracle de Delphes dans la Grèce antique qui donnait des prophéties ambiguës qui se réalisaient toujours, peu importe l’interprétation. Et là, cette IA fait pareil puisqu’elle ne vous donne pas UN futur, mais une probabilité statistique basée sur des patterns.

Delphi-2M fonctionnerait particulièrement bien pour les maladies qui suivent des schémas prévisibles, comme certains cancers, par contre, elle ne capture que la première occurrence d’une maladie. Donc si vous avez un cancer, puis une rémission, puis une récidive, l’IA ne voit que le premier épisode.

Truc marrant (ou pas), l’IA a également été entrainée sur des données de personnes dont certaines sont mortes depuis le recrutement initial en 2006-2010. Elle ressuscite donc numériquement ces gens pour créer des vies plus longues que les vraies et ainsi, ces morts virtuels qui vivent plus longtemps que quand ils étaient vivants, servent à prédire l’avenir des vivants actuels. Si ça c’est pas de la science-fiction…

Après, à vous de voir si vous voulez savoir ou pas… D’un côté, savoir qu’on a 73% de chances de développer un cancer du poumon dans 15 ans pourrait pousser à arrêter de fumer mais de l’autre, vivre avec cette épée de Damoclès au-dessus de la tête pendant 15 ans, merci mais non merci.

Et comme Delphi-2M est capable de générer de travailler à partir de données synthétiques, les chercheurs l’ont aussi transformé en usine à épidémies virtuelles. Ils peuvent ainsi créer des scénarios de santé publique impossibles à tester dans la réalité du genre, “et si tout le monde fumait 3 paquets par jour pendant 10 ans ?” ou “que se passerait-il si on combinait obésité et alcoolisme sur 20 ans ?”. C’est un labo virtuel infini pour tester des tonnes d’hypothèses médicales sans tuer personne (enfin, sauf virtuellement).

Par contre, petite précision importante, les données UK Biobank surreprésentent les personnes blanches, âgées et en bonne santé. Les enfants et adolescents sont par exemple quasi absents. Du coup, si vous êtes jeune, non-blanc ou pas britannique, les prédictions de Delphi-2M seront beaucoup moins fiables…

Delphi-2M n’est de toute façon pas encore prête pour une utilisation clinique. C’est plus un outil de recherche qu’un Nostradamus médical mais j’imagine que dans quelques années, quand on ira chez le médecin, il lancera Delphi-jesaispascombien, et il vous sort : “Bon, vous allez avoir de l’arthrite en 2043, un AVC en 2051, et mourir d’un cancer du pancréas en 2063. Des questions ?

Ça fait flipper non ?

Non, moi ce qui me fait vraiment flipper c’est quand les assurances santé mettront la main dessus. “Ah, Delphi dit que vous avez 82% de chances de développer du diabète ? Ça fera 500€ de plus par mois, merci” ou pire, votre employeur : “Désolé, on ne peut pas vous embaucher, l’IA dit que vous serez en arrêt maladie dans 3 ans”.

Bref, Delphi-2M c’est impressionnant techniquement, mais également un poil flippant… A-t-on vraiment envie de connaître notre avenir médical ?

Moi oui, mais ce n’est peut-être pas le cas de tout le monde.

Allez, Hakuna Matata les copains !

  •  

Quand l'IA apprend à simuler l'univers sur un simple laptop

Alors là, accrochez-vous à votre clavier parce que je vais vous parler d’un truc qui défrise. Si je vous disais qu’il est possible de simuler l’univers entier, sa structure à grande échelle, ses milliards de galaxies… sur votre MacBook Air ??

Pas besoin de réserver du temps sur un supercalculateur, pas besoin de faire la queue pendant des semaines pour obtenir vos résultats. Hé bien c’est ce que permet de faire Effort.jl, et c’est de la bombe pour astrophysiciens !

Mais avant que je vous retourne le cerveau encore une fois, voici un peu de contexte. En mars 2025, le projet DESI a lâché une nouvelle incroyable : l’énergie noire, cette force mystérieuse qui fait accélérer l’expansion de l’univers, pourrait ne pas être constante mais évoluer dans le temps. C’est potentiellement le plus gros bouleversement en cosmologie depuis des décennies, sauf que pour prouver ça, il faut analyser des quantités astronomiques de données (j’assume ce jeu de mots), et c’est là que ça coince.

Le problème, c’est que modéliser la “cosmic web” (cette toile cosmique gigantesque où les galaxies forment des amas reliés par des filaments de matière) ça nécessite des calculs d’une complexité monstrueuse. On utilise pour ça la théorie des champs effectifs de la structure à grande échelle ( EFTofLSS pour les intimes), et une seule analyse peut prendre des jours entiers sur un supercalculateur. Multiplié par les milliers d’analyses nécessaires pour faire de la science solide, on arrive vite à des mois de calculs !!

C’est là qu’intervient Marco Bonici de l’Université de Waterloo et son équipe. Plutôt que de continuer à se battre avec des files d’attente interminables sur les supercalculateurs, ils ont eu une idée géniale : Apprendre à une IA comment la physique fonctionne, et la laisser faire les calculs à notre place.

Effort.jl, c’est donc un peu comme le DLSS de Nvidia mais pour l’univers. Vous savez le DLSS c’est cette techno qui utilise l’IA pour calculer des images haute définition sans faire suer votre GPU. Bon bah là, au lieu de cracher des graphismes de jeux vidéo, on crache… l’univers lui-même. Et le résultat est incroyable… C’est une accélération de x1000 fois par rapport aux méthodes traditionnelles de génération.

La beauté du truc, c’est que l’équipe n’a pas juste balancé des données dans un réseau de neurones en espérant que ça marche. Non, ils ont intégré dès le départ les lois physiques connues dans l’architecture même de leur IA. Comme l’explique Bonici dans une interview , c’est comme décrire l’eau dans un verre. Plutôt que de calculer le mouvement de chaque molécule (ce qui serait impossible), on encode les propriétés microscopiques importantes et on regarde leur effet au niveau macroscopique.

Le réseau de neurones d’Effort.jl est donc relativement simple. Il est constitué de 5 couches cachées de 64 neurones chacune, entraînées sur 60 000 combinaisons de paramètres cosmologiques. Ainsi grâce à l’intégration intelligente de la physique, il peut calculer en 15 microsecondes ce qui prenait des heures avant. Et niveau précision c’est identique, voire parfois meilleure que les modèles originaux.

En plus, tout est codé en Julia , un langage de programmation scientifique qui monte en flèche. L’équipe a même créé deux backends différents : SimpleChains.jl pour faire tourner ça sur CPU (ultra rapide) et Lux.jl pour exploiter les GPU si vous en avez. Et cerise sur le gâteau, tout est différentiable, ce qui veut dire que l’IA peut non seulement calculer les résultats, mais aussi comprendre comment ils changent quand on modifie légèrement les paramètres.

Pour valider leur bébé, l’équipe a donc fait tourner Effort.jl sur les vraies données du Baryon Oscillation Spectroscopic Survey (BOSS) et le résultat est ouf.. On obtient exactement les mêmes conclusions que les méthodes traditionnelles, mais en seulement quelques minutes sur un laptop au lieu de plusieurs jours sur un cluster. C’est testé, validé, et ça marche.

Au-delà de l’exploit technique, Effort.jl arrive à un moment important car avec les télescopes comme DESI et Euclid qui génèrent des téraoctets de données, et surtout cette découverte potentielle que l’énergie noire évolue, on a besoin d’outils capables de suivre le rythme. Bah oui, c’est fini le temps où les chercheurs passaient plus de temps à attendre le résultat de leurs calculs qu’à faire de la science.

Et en plus, Effort.jl est totalement open source et sur GitHub . N’importe qui peut donc télécharger le code, l’installer sur son laptop, et commencer à explorer l’univers depuis son canap'.

Alors oui, on pourrait dire que c’est “juste” une accélération de calculs, mais en réalité, c’est bien plus que ça. C’est la différence entre attendre des mois pour tester une hypothèse et pouvoir explorer des milliers de scénarios en temps réel. C’est la possibilité pour des équipes sans accès aux supercalculateurs de faire de la recherche de pointe. Et c’est, potentiellement, ce qui nous permettra de comprendre enfin ce qu’est cette foutue énergie noire qui compose 70% de l’univers…

Bref, l’IA quand elle est bien utilisée et combinée avec une vraie compréhension de la physique, ça décuple les capacités de la science et ça c’est beau !

Source

  •  

Une IA qui détecte les sous-marins avec 95% de précision

Bon alors, imaginez deux secondes… Vous êtes commandant de sous-marin nucléaire, tranquille à 300 mètres sous l’eau dans votre grosse boîte de conserve à 4 milliards d’euros. Pendant des décennies, votre job consistait essentiellement à jouer à cache-cache dans l’immensité océanique, en mode Octobre Rouge, persuadé que personne ne pouvait vous trouver dans ce territoire grand de 361 millions de km². Et là, paf, des chercheurs chinois débarquent avec leur IA qui est capable de vous détecter avec 95% de précision . Y’a de quoi avoir le seum.

Hé oui, c’est un triste jour car l’océan vient officiellement de perdre son dernier mystère. D’après une étude publiée dans Electronics Optics & Control , cette nouvelle IA militaire développée par l’équipe de Meng Hao de l’Institut chinois de recherche sur les hélicoptères transforme tout simplement les abysses en aquarium encore plus transparent que celui de Maurice votre poisson rouge. Fini l’époque où un sous-marin pouvait disparaître dans les profondeurs comme un ninja en maillot de bain. Maintenant, vous avez seulement 5% de chances de vous en sortir donc autant dire que c’est moins probable que de gagner à la tombola de votre CE.

Cette IA, elle ne fait pas que détecter. Elle agit comme un “commandant intelligent” qui fusionne en temps réel les données de tout un tas de capteurs : sonar, radar, température de l’eau, salinité, anomalies magnétiques. C’est un genre de sixième sens artificiel qui “voit” ce que les humains ne peuvent même pas voir. Le système crée ainsi une synesthésie numérique où la température devient une couleur, le magnétisme devient une forme, et salinité devient un mouvement…

Bref, les sous-marins américains, ces joujoux nucléaires censés garantir la dissuasion, se retrouvent soudain aussi discrets qu’un influenceur sur TikTok. Et le truc vraiment dingue avec cette IA c’est qu’elle communique même avec les opérateurs humains via des modèles de langage naturel , style ChatGPT des profondeurs. Comme ça, au lieu de regarder des écrans radars incompréhensibles avec des bips anxiogènes, le mec reçoit des instructions claires du genre “Sous-marin détecté à 3km nord-ouest, probabilité 97%, déployer contre-mesures recommandé”. C’est Alexa, mais pour la guerre sous-marine.

Ça me rappelle vite fait de loin ce qui s’est passé avec notre vie privée. Dans les années 90, on pensait qu’internet nous rendrait anonymes et libres et aujourd’hui, notre grille-pain connecté est la pire des balances…

Avant, un seul sous-marin pouvait tenir en respect toute une flotte, menacer des villes entières, ou simplement disparaître pendant des mois sans que personne ne sache où il était. Le fantasme ultime du militaire ou du père absent… Mais avec 95% de détection en simulation , même en utilisant des leurres, des drones sous-marins ou en zigzaguant comme un lapin poursuivi par un chasseur bourré, vous êtes grillé. L’IA anticipe vos mouvements, s’adapte à vos feintes, et continue de vous traquer comme Terminator.

En début d’année, les chinois toujours ont également mis au point un système qui utilise des atomes de rubidium dans des capteurs quantiques CPT montés sur des drones. Ces petits trucs détectent des variations magnétiques un milliard de fois plus faibles que l’aimant de votre frigo. Les capteurs sont tellement sensibles qu’ils captent la moindre perturbation du champ magnétique terrestre causée par la masse métallique d’un sous-marin. Donc autant dire que ce truc + leur IA, on est cuit !

Ah et les Américains ne sont pas en reste. Ils bossent sur leur propre technologie SQUID (Superconducting Quantum Interference Device) qui pourrait théoriquement détecter un sous-marin à 6 kilomètres de distance, contre 800 mètres pour les systèmes actuels. On est donc dans une course technologique où chaque camp essaie de rendre l’océan plus transparent que l’autre…

C’est la fin d’un concept vieux comme l’humanité… Car depuis la préhistoire, se planquer était une stratégie de survie basique et maintenant, entre les satellites, les drones, les capteurs quantiques et l’IA, il n’y a littéralement plus aucun endroit sur Terre où disparaître. Même au fond de la fosse des Mariannes, une IA pourrait probablement vous retrouver en analysant les perturbations gravitationnelles de votre présence.

Et le pire dans tout ça c’est que cette technologie ne va faire que s’améliorer. Les capteurs SERF promettent une sensibilité au niveau du femtotesla, mille fois plus précis que les systèmes actuels ce qui fait que dans quelques années, on pourra probablement détecter un poisson rouge dans un bocal depuis l’espace.

Les océans ne seront plus ces vastes étendues mystérieuses pleines de secrets militaires, mais des espaces totalement cartographiés où chaque mouvement sera enregistré, analysé, prédit.

Snif…

  •  

Apprendre la programmation sans se décourager : 5 stratégies efficaces

Se lancer dans la programmation peut sembler intimidant. Beaucoup ouvrent un tutoriel et pensent : « Je n’y comprends rien ». La bonne nouvelle ? Avec quelques choix intelligents et des méthodes adaptées, l’apprentissage peut devenir plus fluide et même agréable. Voici comment. 1. Choisir un langage accessible pour débuter Commencer avec un langage à […]

L’article Apprendre la programmation sans se décourager : 5 stratégies efficaces est apparu en premier sur BlogNT : le Blog des Nouvelles Technologies.

  •  

Vibe coding : quand l’intuition et l’IA redéfinissent le développement logiciel

Dans le monde en constante évolution du développement logiciel, une nouvelle approche bouleverse les méthodes traditionnelles : le vibe coding. Le terme, inventé en février 2025 par Andrej Karpathy (ancien chercheur chez OpenAI), désigne une pratique où les développeurs utilisent des prompts en langage naturel pour guider des modèles d’IA avancés dans la génération de code. […]

L’article Vibe coding : quand l’intuition et l’IA redéfinissent le développement logiciel est apparu en premier sur BlogNT : le Blog des Nouvelles Technologies.

  •  

MVC Architecture And Its Pipeline

MVC Architecture organizes applications into Model, View, and Controller components, each serving distinct roles. The MVC pipeline manages requests, routing them through controllers to interact with models and render views, ensuring separation of concerns and streamlined development.


Permalien
  •