Vue lecture

SimpleFold - Un labo de biologie moléculaire qui tourne sur un simple Macbook Pro

Apple vient de sortir un truc énorme et je pense que personne n’a encore capté cette folie. Leur équipe de recherche en machine learning a publié SimpleFold , un modèle d’IA pour prédire la structure des protéines. Jusque-là, rien de révolutionnaire me direz-vous car AlphaFold de Google fait déjà ça très bien, sauf que… SimpleFold, lui, tourne sur votre MacBook Pro !

Maintenant, je vais vous expliquer pourquoi c’est complètement dingue. D’après l’article de recherche d’Apple , SimpleFold atteint 95% des performances d’AlphaFold2 tout en étant infiniment plus léger. En effet, AlphaFold nécessite des supercalculateurs avec des GPU à 20 000 balles pièce alors SimpleFold, lui tourne tranquille sur un MacBook Pro M2 avec 64GB de RAM.

Pour réaliser cet exploit, au lieu d’utiliser les modules super complexes d’AlphaFold comme la méthode du triangle attention ou les MSA ( Multiple Sequence Alignments ), SimpleFold utilise une technique appelée “flow-matching” avec des transformers basiques. Pour rappel, flow matching ça permet de générer des données (souvent des images ou du texte), à partir de bruit aléatoire…

Ils ont donc échangé le moteur de Formule 1 utilisé par des outil comme Alphafold par un moteur de Twingo bien générique et arrivent à atteindre la même vitesse.

Les chercheurs d’Apple ont pour cela entraîné 6 versions différentes de SimpleFold, de 100 millions à 3 milliards de paramètres. Et même la plus petite version (100M) atteint 90% des performances d’ ESMFold sur les benchmarks CAMEO22.

Et c’est super cool parce que prédire la structure d’une protéine, c’est pas juste un truc de geek pour s’amuser. C’est LA base pour créer de nouveaux médicaments, comprendre des maladies, développer des vaccins… Jusqu’à présent, seuls les gros labos avec des budgets de malade pouvaient se permettre de faire ça, c’est pourquoi SimpleFold change complètement la donne en rendant cette technologie accessible à n’importe quel chercheur avec un MacBook.

Un chercheur indépendant peut maintenant découvrir de nouvelles molécules depuis son canapé… Chapeau Apple pour démocratiser cette partie de la recherche scientifique !

Le plus drôle dans tout ça, c’est qu’Apple a entraîné SimpleFold sur 8,6 millions de structures protéiques, ce qui en fait donc le plus gros modèle de folding jamais créé, avec 3 milliards de paramètres pour la version complète. Maintenant pour l’installer, c’est super simple. Le repo GitHub montre que vous aurez juste besoin de Python 3.10 et que ça supporte PyTorch ou MLX (le framework d’Apple pour les puces Silicon).

Et voilà, en 5 minutes, vous avez un labo de biologie moléculaire totalement open source sur votre machine !

Yuyang Wang et son équipe ont donc prouvé que pour prédire les structures protéiques, pas besoin de réinventer la roue. Des transformers classiques avec du flow-matching, et ça marche ! Imaginez des lycéens qui découvrent de nouvelles molécules pour leur TPE, des startups biotech qui se lancent depuis un garage (littéralement), des pays en développement qui peuvent enfin faire de la recherche de pointe sans investir des millions dans l’infra…

Apple vient de casser un petit peu le monopole de la big pharma sur la recherche moléculaire.

C’est top non ?

  •  

L'API qui manquait à Ollama pour concurrencer ChatGPT est enfin là !!

Ce qui est super relou avec les IA qu’on peut utiliser en local, genre avec Ollama, c’est que si on lui demande des infos un peu trop récente, ça nous sort des vieux chiffres de 2023 avec la confiance d’un vendeur de voitures d’occasion. Bon bah ça, c’est fini puisqu’ Ollama vient de sortir une API de recherche web qui permet enfin à vos modèles locaux d’accéder à des infos fraîches dispo sur le net.

Woohoo \o/ !

Baptisée Ollama Web Search, cette API REST permet donc à vos modèles de faire des recherches sur le web en temps réel comme ça plus besoin de se contenter des données d’entraînement figées dans le temps. Selon la doc officielle , l’API fournit “les dernières informations du web pour réduire les hallucinations et améliorer la précision”. En gros, votre IA locale devient aussi à jour que ChatGPT, mais sans envoyer vos données perso à OpenAI.

Les modèles compatibles avec cette nouvelle fonctionnalité incluent qwen3, LLama, gpt-oss (la version open source d’OpenAI), deepseek-v3.1, et plein d’autres. Et d’après les premiers tests de la communauté , qwen3 et gpt-oss sont même plutôt doués pour exploiter cette fonctionnalité. Le modèle comprend qu’il lui manque une info, fait sa recherche, analyse les résultats et nous sort une réponse documentée !

C’est trop incrrrr ! Vous allez pouvoir booster vos scripts / bots / outils d’IA locale pour qu’ils puissent surveiller des choses dispo en ligne, les comparer, générer des résumés à partir de sites web, fact checker ou compléter des infos…etc.

Mais alors comment s’en servir ? Bon, on est vendredi soir et j’ai la flemme de tourner un tuto vidéo, donc même si je risque de détailler tout ça bientôt à mes Patreons d’amour , voici quand même quelques explications.

D’abord, il faut créer une clé API Ollama . La doc explique que vous avez un essai gratuit généreux pour commencer, mais s’il vous en faut plus, il faudra prendre un petit abonnement Ollama Cloud

Une fois votre clé en poche, exportez-la dans votre environnement comme ceci :

export OLLAMA_API_KEY="votre_clé_ici"

Le plus simple ensuite pour tester, c’est avec curl :

curl https://ollama.com/api/web_search \ --header "Authorization: Bearer $OLLAMA_API_KEY" \ -d '{ "query": "dernières vulnérabilités CVE janvier 2025" }'

Mais bon, soyons honnêtes, on va plutôt utiliser Python car c’est quand même plus cool ;-) . Voici donc un exemple de script basique qui compare une réponse avec et sans recherche web :

import ollama
from ollama import chat, web_search, web_fetch

model = "qwen3:4b"

# 1. Sans recherche web
response_classic = chat( # pas ollama.chat
 model=model,
 messages=[{
 "role": "user",
 "content": "Quelles sont les features de React 19?"
 }]
)
print("Sans recherche web:", response_classic.message.content[:500]) # .message.content

# 2. Avec recherche web
search_results = web_search("React 19 features dernières nouveautés")
print("Résultats:", search_results)

# 3. Avec outils
available_tools = {'web_search': web_search, 'web_fetch': web_fetch}
messages = [{
 "role": "user",
 "content": "Utilise la recherche web pour me dire les dernières features de React 19"
}]

response_with_tools = chat(
 model=model,
 messages=messages,
 tools=[web_search, web_fetch],
 think=True
)

# Accès aux tool_calls
if response_with_tools.message.tool_calls:
 for tool_call in response_with_tools.message.tool_calls:
 function_to_call = available_tools.get(tool_call.function.name)
 if function_to_call:
 args = tool_call.function.arguments
 result = function_to_call(**args)
 print(f"Outil utilisé: {tool_call.function.name}")
 print(f"Résultat: {str(result)[:500]}...")

print("Réponse finale:", response_with_tools.message.content)

Les performances varient ensuite selon les modèles. Qwen3:4b est parfait pour du temps réel avec environ 85 tokens/seconde. GPT-OSS:120b est plus lent mais donne des résultats de qualité idéaux pour de la production. Pour du dev local, je vous recommande qwen3:8b, c’est le bon compromis entre vitesse et intelligence.

Le truc cool, c’est que vous pouvez maintenant créer des agents spécialisés. Genre un agent DevOps qui surveille les CVE de vos dépendances, un agent Marketing qui analyse les tendances de votre secteur, ou un agent Support qui maintient une base de connaissances à jour.

Voici un exemple :

import ollama
from ollama import chat, web_search

class SecurityAgent:
 def __init__(self):
 self.model = "qwen3:4b"

 def check_vulnerabilities(self, technologies):
 rapport = "🛡️ RAPPORT SÉCURITÉ\n\n"

 for tech in technologies:
 # Recherche directe des CVE récentes
 results = web_search(f"{tech} CVE vulnerabilities 2025 critical")

 # Demande au modèle d'analyser
 response = chat(
 model=self.model,
 messages=[{
 "role": "user",
 "content": f"Résume les vulnérabilités critiques de {tech}: {results}"
 }]
 )

 rapport += f"### {tech}\n{response.message.content}\n\n"

 return rapport

# Utilisation
agent = SecurityAgent()
rapport = agent.check_vulnerabilities(["Node.js", "PostgreSQL", "Docker"])
print(rapport)

Maintenant, pour optimiser un peu tout ça et ne pas flamber votre quota API, voici quelques astuces assez classiques… D’abord, mettez en cache les résultats. Ensuite, soyez spécifique dans vos requêtes. Par exemple “React hooks” va chercher plein de trucs inutiles, alors que “React 19 nouveaux hooks useActionState” sera plus efficace.

On peut vraiment réduire la quantité de requêtes en étant malin sur le prompt engineering. Par exemple, au lieu de laisser le modèle chercher tout seul, guidez-le : “Vérifie uniquement sur la doc officielle de React” plutôt que “Cherche des infos sur React”.

Et comme Ollama supporte MCP Server, Cline, Codex et Goose, c’est royal car vous pouvez aussi brancher votre assistant IA directement dans votre IDE, Slack, ou Discord. Hé oui, vous allez enfin pouvoir coder un bot Discord qui va fact-checker automatiquement les affirmations douteuses et foireuses de vos collègues. Le rêve !

Pour aller plus loin, vous pouvez aussi combiner la recherche web avec le fetching de pages spécifiques. L’API web_fetch permet ainsi de récupérer le contenu d’une URL précise. Pratique pour analyser en profondeur une doc ou un article :

from ollama import web_search, web_fetch, chat

# 1. Recherche d'articles pertinents
search_results = web_search("React 19 vs Vue 3 comparison 2025")
top_url = search_results.results[0]['url'] # ou .url selon le type
print(f"📰 Article trouvé: {search_results.results[0]['title']}")

# 2. Récupération du contenu complet de la page
page_content = web_fetch(top_url)
print(f"📄 {len(page_content.content)} caractères récupérés")

# 3. Analyse approfondie du contenu
response = chat(
 model="qwen3:4b", # ou "gpt-oss" si disponible
 messages=[{
 "role": "user",
 "content": f"""
 Analyse cette comparaison technique:
 {page_content.content[:4000]}

 Donne-moi:
 1. Les points clés de chaque framework
 2. Le gagnant selon l'article
 3. Les cas d'usage recommandés
 """
 }]
)

print(f"\n🔍 Analyse:\n{response.message.content}")

Alors bien sûr, des fois la recherche retournera des trucs pas pertinents, surtout si votre requête est vague et de son côté, le modèle peut aussi mal interpréter les résultats s’il est trop petit. Mais bon, comparé à une IA qui vous sort que Windows 11 n’existe pas encore, on a fait quand même pas mal de chemin, vous ne trouvez pas ??

J’espère qu’à terme, Ollama ajoutera aussi le support de sources personnalisées car ce serait vraiment cool de pouvoir indexer par exemple sa propre doc ou ses propres emails pour y faire des recherches… Mais bon, en attendant cette nouvelle API permet enfin de contrebalancer ce problème des modèles pas à jour en terme de connaissances, et ça c’est déjà énorme !

A vous de jouer maintenant !

Source

  •  

MedGPT - L'IA préférée des hypocondriaques

Enfin !!

Oui, enfin, on a une IA médicale française, développée par Synapse Medicine une startup bordelaise, qui va pouvoir confirmer que votre petit mal de tête est bien un cancer du cerveau en phase terminale, exactement comme vous l’aviez lu sur Doctissimo à 3h ce matin après avoir cliqué sur 47 pages de forums où “MoiMêmeJeSais” raconte qu’elle a failli mourir avec les mêmes symptômes.

Cela s’appelle MedGPT et attention, avant que vous ne commenciez à lui demander si votre bubon de sorcière sur le nez est un mélanome, sachez que cet outil est réservé aux professionnels de santé. Médecins généralistes, spécialistes, pharmaciens, infirmiers, sages-femmes… Bref, tous ceux qui ont encore la chance d’avoir un boulot dans notre beau pays riche et développé où 87% du territoire est considéré comme un désert médical .

Hé oui les parisiens, il y a environ 6 millions de Français qui n’ont pas de médecin traitant et dans certaines régions, il faut attendre jusqu’à 1 an pour voir un spécialiste. Du coup, on en est réduit à faire du diagnostic sauvage sur internet ou à prendre un vol Ryanair pour se faire soigner en Belgique ou en Roumanie où ils ont encore des médecins disponibles. Mais bon, revenons à nos moutons numériques…

Selon les concepteurs de MedGPT , leur IA s’appuie sur plus de 50 sources officielles françaises : la Haute Autorité de Santé, l’ANSM, la base Thériaque… Contrairement à ChatGPT qui pourrait vous conseiller de prendre de l’hydroxychloroquine / Ivermectine / azithromycine pour soigner votre Covid parce qu’il est complétement con, MedGPT, lui, utilise uniquement des données médicales françaises validées par la science et les professionnels de santé.

Ils lui ont même fait passer l’ECN 2023 (le concours de médecine) et MedGPT a réussi à se classer dans le top 500 , alors que ChatGPT végète autour de la 2000ème place… Bon, ça reste moins bien qu’un vrai étudiant en médecine (quoique pour les internes aux urgences, j’suis moyen sûr), mais c’est déjà mieux que la moitié des candidats humains.

Et rassurez-vous, less données sont hébergées en France, respectent le RGPD et les normes HDS (Hébergement de Données de Santé). Quand on sait que 66% des médecins américains et 20% des britanniques utilisent déjà ChatGPT pour leur boulot , malgré les risques de fuites de données et de recommandations foireuses… J’suis content que les Français qui étaient coincés entre utiliser un truc pas adapté ou se passer de l’IA, ont maintenant leur solution souveraine.

Alors pour l’instant, MedGPT est en bêta gratuite et limitée à 5 questions par jour. Oui, 5 questions, c’est le nombre de symptômes différents que vous pouvez googler avant de vous convaincre que vous avez la peste bubonique mais bon, après avec un petit VPN, vous pouvez contourner la limite. Notez aussi que l’IA peut faire également des erreurs, donc fiez-vous toujours à votre jugement, à la science et à votre médecin.

C’est gratuit pour le moment, alors autant en profiter avant que ça devienne payant comme tout le reste et qui sait, peut-être qu’un jour on aura une IA capable de faire les ordonnances directement… Woohoo \o/.

Bon, je vous laisse, je vais aller vérifier sur Doctissimo si ma fatigue après avoir écrit cet article n’est pas un symptôme lié à une “dermatite irritative de la région périnéale” ^^.

Merci à Lorenper pour m’avoir fait découvrir cette pépite !

  •  

Delphi-2M - L'IA qui prédit les maladies que vous aurez dans quelques années

Hakuna Matata les amis ! Pas de soucis, pas de stress, pas d’angoisse sur ce qui va arriver, on prend la vie comme elle vient sans inquiétude…

Pas vrai ?

Et bien, Hakuna Matata va se prendre un coup dans la gueule car des chercheurs européens ont créé Delphi-2M, une IA qui peut vous dire exactement quelles maladies vous allez développer dans les 20 prochaines années. C’est donc un modèle GPT modifié (oui, comme ChatGPT, mais en blouse blanche) qui analyse vos données médicales, votre âge, sexe, IMC et habitudes de vie pour prédire l’arrivée ou non de 1258 maladies différentes dans votre life.

Les chercheurs de l’EMBL, du Centre allemand de recherche sur le cancer et de l’Université de Copenhague sont derrière cette petite merveille et ils ont entraîné leur outil sur 400 000 participants de la UK Biobank et validé que ça fonctionnait bien sur 1,9 millions de Danois.

Et vous vous en doutez, Delphi-2M ne fait pas que prédire… Non non, cette IA génère littéralement des “trajectoires de santé synthétiques”. En gros, elle crée des versions virtuelles de vous qui vivent des vies parallèles avec différentes maladies, un peu comme un multivers médical personnel.

L’outil peut ainsi générer des millions de ces vies synthétiques, créant des données médicales qui n’ont jamais existé mais qui sont statistiquement cohérentes.

Le nom Delphi-2M n’est pas non plus anodin. C’est en clin d’oeil à l’oracle de Delphes dans la Grèce antique qui donnait des prophéties ambiguës qui se réalisaient toujours, peu importe l’interprétation. Et là, cette IA fait pareil puisqu’elle ne vous donne pas UN futur, mais une probabilité statistique basée sur des patterns.

Delphi-2M fonctionnerait particulièrement bien pour les maladies qui suivent des schémas prévisibles, comme certains cancers, par contre, elle ne capture que la première occurrence d’une maladie. Donc si vous avez un cancer, puis une rémission, puis une récidive, l’IA ne voit que le premier épisode.

Truc marrant (ou pas), l’IA a également été entrainée sur des données de personnes dont certaines sont mortes depuis le recrutement initial en 2006-2010. Elle ressuscite donc numériquement ces gens pour créer des vies plus longues que les vraies et ainsi, ces morts virtuels qui vivent plus longtemps que quand ils étaient vivants, servent à prédire l’avenir des vivants actuels. Si ça c’est pas de la science-fiction…

Après, à vous de voir si vous voulez savoir ou pas… D’un côté, savoir qu’on a 73% de chances de développer un cancer du poumon dans 15 ans pourrait pousser à arrêter de fumer mais de l’autre, vivre avec cette épée de Damoclès au-dessus de la tête pendant 15 ans, merci mais non merci.

Et comme Delphi-2M est capable de générer de travailler à partir de données synthétiques, les chercheurs l’ont aussi transformé en usine à épidémies virtuelles. Ils peuvent ainsi créer des scénarios de santé publique impossibles à tester dans la réalité du genre, “et si tout le monde fumait 3 paquets par jour pendant 10 ans ?” ou “que se passerait-il si on combinait obésité et alcoolisme sur 20 ans ?”. C’est un labo virtuel infini pour tester des tonnes d’hypothèses médicales sans tuer personne (enfin, sauf virtuellement).

Par contre, petite précision importante, les données UK Biobank surreprésentent les personnes blanches, âgées et en bonne santé. Les enfants et adolescents sont par exemple quasi absents. Du coup, si vous êtes jeune, non-blanc ou pas britannique, les prédictions de Delphi-2M seront beaucoup moins fiables…

Delphi-2M n’est de toute façon pas encore prête pour une utilisation clinique. C’est plus un outil de recherche qu’un Nostradamus médical mais j’imagine que dans quelques années, quand on ira chez le médecin, il lancera Delphi-jesaispascombien, et il vous sort : “Bon, vous allez avoir de l’arthrite en 2043, un AVC en 2051, et mourir d’un cancer du pancréas en 2063. Des questions ?

Ça fait flipper non ?

Non, moi ce qui me fait vraiment flipper c’est quand les assurances santé mettront la main dessus. “Ah, Delphi dit que vous avez 82% de chances de développer du diabète ? Ça fera 500€ de plus par mois, merci” ou pire, votre employeur : “Désolé, on ne peut pas vous embaucher, l’IA dit que vous serez en arrêt maladie dans 3 ans”.

Bref, Delphi-2M c’est impressionnant techniquement, mais également un poil flippant… A-t-on vraiment envie de connaître notre avenir médical ?

Moi oui, mais ce n’est peut-être pas le cas de tout le monde.

Allez, Hakuna Matata les copains !

  •  

Quand l'IA apprend à simuler l'univers sur un simple laptop

Alors là, accrochez-vous à votre clavier parce que je vais vous parler d’un truc qui défrise. Si je vous disais qu’il est possible de simuler l’univers entier, sa structure à grande échelle, ses milliards de galaxies… sur votre MacBook Air ??

Pas besoin de réserver du temps sur un supercalculateur, pas besoin de faire la queue pendant des semaines pour obtenir vos résultats. Hé bien c’est ce que permet de faire Effort.jl, et c’est de la bombe pour astrophysiciens !

Mais avant que je vous retourne le cerveau encore une fois, voici un peu de contexte. En mars 2025, le projet DESI a lâché une nouvelle incroyable : l’énergie noire, cette force mystérieuse qui fait accélérer l’expansion de l’univers, pourrait ne pas être constante mais évoluer dans le temps. C’est potentiellement le plus gros bouleversement en cosmologie depuis des décennies, sauf que pour prouver ça, il faut analyser des quantités astronomiques de données (j’assume ce jeu de mots), et c’est là que ça coince.

Le problème, c’est que modéliser la “cosmic web” (cette toile cosmique gigantesque où les galaxies forment des amas reliés par des filaments de matière) ça nécessite des calculs d’une complexité monstrueuse. On utilise pour ça la théorie des champs effectifs de la structure à grande échelle ( EFTofLSS pour les intimes), et une seule analyse peut prendre des jours entiers sur un supercalculateur. Multiplié par les milliers d’analyses nécessaires pour faire de la science solide, on arrive vite à des mois de calculs !!

C’est là qu’intervient Marco Bonici de l’Université de Waterloo et son équipe. Plutôt que de continuer à se battre avec des files d’attente interminables sur les supercalculateurs, ils ont eu une idée géniale : Apprendre à une IA comment la physique fonctionne, et la laisser faire les calculs à notre place.

Effort.jl, c’est donc un peu comme le DLSS de Nvidia mais pour l’univers. Vous savez le DLSS c’est cette techno qui utilise l’IA pour calculer des images haute définition sans faire suer votre GPU. Bon bah là, au lieu de cracher des graphismes de jeux vidéo, on crache… l’univers lui-même. Et le résultat est incroyable… C’est une accélération de x1000 fois par rapport aux méthodes traditionnelles de génération.

La beauté du truc, c’est que l’équipe n’a pas juste balancé des données dans un réseau de neurones en espérant que ça marche. Non, ils ont intégré dès le départ les lois physiques connues dans l’architecture même de leur IA. Comme l’explique Bonici dans une interview , c’est comme décrire l’eau dans un verre. Plutôt que de calculer le mouvement de chaque molécule (ce qui serait impossible), on encode les propriétés microscopiques importantes et on regarde leur effet au niveau macroscopique.

Le réseau de neurones d’Effort.jl est donc relativement simple. Il est constitué de 5 couches cachées de 64 neurones chacune, entraînées sur 60 000 combinaisons de paramètres cosmologiques. Ainsi grâce à l’intégration intelligente de la physique, il peut calculer en 15 microsecondes ce qui prenait des heures avant. Et niveau précision c’est identique, voire parfois meilleure que les modèles originaux.

En plus, tout est codé en Julia , un langage de programmation scientifique qui monte en flèche. L’équipe a même créé deux backends différents : SimpleChains.jl pour faire tourner ça sur CPU (ultra rapide) et Lux.jl pour exploiter les GPU si vous en avez. Et cerise sur le gâteau, tout est différentiable, ce qui veut dire que l’IA peut non seulement calculer les résultats, mais aussi comprendre comment ils changent quand on modifie légèrement les paramètres.

Pour valider leur bébé, l’équipe a donc fait tourner Effort.jl sur les vraies données du Baryon Oscillation Spectroscopic Survey (BOSS) et le résultat est ouf.. On obtient exactement les mêmes conclusions que les méthodes traditionnelles, mais en seulement quelques minutes sur un laptop au lieu de plusieurs jours sur un cluster. C’est testé, validé, et ça marche.

Au-delà de l’exploit technique, Effort.jl arrive à un moment important car avec les télescopes comme DESI et Euclid qui génèrent des téraoctets de données, et surtout cette découverte potentielle que l’énergie noire évolue, on a besoin d’outils capables de suivre le rythme. Bah oui, c’est fini le temps où les chercheurs passaient plus de temps à attendre le résultat de leurs calculs qu’à faire de la science.

Et en plus, Effort.jl est totalement open source et sur GitHub . N’importe qui peut donc télécharger le code, l’installer sur son laptop, et commencer à explorer l’univers depuis son canap'.

Alors oui, on pourrait dire que c’est “juste” une accélération de calculs, mais en réalité, c’est bien plus que ça. C’est la différence entre attendre des mois pour tester une hypothèse et pouvoir explorer des milliers de scénarios en temps réel. C’est la possibilité pour des équipes sans accès aux supercalculateurs de faire de la recherche de pointe. Et c’est, potentiellement, ce qui nous permettra de comprendre enfin ce qu’est cette foutue énergie noire qui compose 70% de l’univers…

Bref, l’IA quand elle est bien utilisée et combinée avec une vraie compréhension de la physique, ça décuple les capacités de la science et ça c’est beau !

Source

  •  

Une IA qui détecte les sous-marins avec 95% de précision

Bon alors, imaginez deux secondes… Vous êtes commandant de sous-marin nucléaire, tranquille à 300 mètres sous l’eau dans votre grosse boîte de conserve à 4 milliards d’euros. Pendant des décennies, votre job consistait essentiellement à jouer à cache-cache dans l’immensité océanique, en mode Octobre Rouge, persuadé que personne ne pouvait vous trouver dans ce territoire grand de 361 millions de km². Et là, paf, des chercheurs chinois débarquent avec leur IA qui est capable de vous détecter avec 95% de précision . Y’a de quoi avoir le seum.

Hé oui, c’est un triste jour car l’océan vient officiellement de perdre son dernier mystère. D’après une étude publiée dans Electronics Optics & Control , cette nouvelle IA militaire développée par l’équipe de Meng Hao de l’Institut chinois de recherche sur les hélicoptères transforme tout simplement les abysses en aquarium encore plus transparent que celui de Maurice votre poisson rouge. Fini l’époque où un sous-marin pouvait disparaître dans les profondeurs comme un ninja en maillot de bain. Maintenant, vous avez seulement 5% de chances de vous en sortir donc autant dire que c’est moins probable que de gagner à la tombola de votre CE.

Cette IA, elle ne fait pas que détecter. Elle agit comme un “commandant intelligent” qui fusionne en temps réel les données de tout un tas de capteurs : sonar, radar, température de l’eau, salinité, anomalies magnétiques. C’est un genre de sixième sens artificiel qui “voit” ce que les humains ne peuvent même pas voir. Le système crée ainsi une synesthésie numérique où la température devient une couleur, le magnétisme devient une forme, et salinité devient un mouvement…

Bref, les sous-marins américains, ces joujoux nucléaires censés garantir la dissuasion, se retrouvent soudain aussi discrets qu’un influenceur sur TikTok. Et le truc vraiment dingue avec cette IA c’est qu’elle communique même avec les opérateurs humains via des modèles de langage naturel , style ChatGPT des profondeurs. Comme ça, au lieu de regarder des écrans radars incompréhensibles avec des bips anxiogènes, le mec reçoit des instructions claires du genre “Sous-marin détecté à 3km nord-ouest, probabilité 97%, déployer contre-mesures recommandé”. C’est Alexa, mais pour la guerre sous-marine.

Ça me rappelle vite fait de loin ce qui s’est passé avec notre vie privée. Dans les années 90, on pensait qu’internet nous rendrait anonymes et libres et aujourd’hui, notre grille-pain connecté est la pire des balances…

Avant, un seul sous-marin pouvait tenir en respect toute une flotte, menacer des villes entières, ou simplement disparaître pendant des mois sans que personne ne sache où il était. Le fantasme ultime du militaire ou du père absent… Mais avec 95% de détection en simulation , même en utilisant des leurres, des drones sous-marins ou en zigzaguant comme un lapin poursuivi par un chasseur bourré, vous êtes grillé. L’IA anticipe vos mouvements, s’adapte à vos feintes, et continue de vous traquer comme Terminator.

En début d’année, les chinois toujours ont également mis au point un système qui utilise des atomes de rubidium dans des capteurs quantiques CPT montés sur des drones. Ces petits trucs détectent des variations magnétiques un milliard de fois plus faibles que l’aimant de votre frigo. Les capteurs sont tellement sensibles qu’ils captent la moindre perturbation du champ magnétique terrestre causée par la masse métallique d’un sous-marin. Donc autant dire que ce truc + leur IA, on est cuit !

Ah et les Américains ne sont pas en reste. Ils bossent sur leur propre technologie SQUID (Superconducting Quantum Interference Device) qui pourrait théoriquement détecter un sous-marin à 6 kilomètres de distance, contre 800 mètres pour les systèmes actuels. On est donc dans une course technologique où chaque camp essaie de rendre l’océan plus transparent que l’autre…

C’est la fin d’un concept vieux comme l’humanité… Car depuis la préhistoire, se planquer était une stratégie de survie basique et maintenant, entre les satellites, les drones, les capteurs quantiques et l’IA, il n’y a littéralement plus aucun endroit sur Terre où disparaître. Même au fond de la fosse des Mariannes, une IA pourrait probablement vous retrouver en analysant les perturbations gravitationnelles de votre présence.

Et le pire dans tout ça c’est que cette technologie ne va faire que s’améliorer. Les capteurs SERF promettent une sensibilité au niveau du femtotesla, mille fois plus précis que les systèmes actuels ce qui fait que dans quelques années, on pourra probablement détecter un poisson rouge dans un bocal depuis l’espace.

Les océans ne seront plus ces vastes étendues mystérieuses pleines de secrets militaires, mais des espaces totalement cartographiés où chaque mouvement sera enregistré, analysé, prédit.

Snif…

  •  

Are people’s bosses really making them use AI tools? - Piccalilli

De plus en plus de boîtes IT semblent forcer l'utilisation de l'IA sans en comprendre les effets néfastes.

Regurgiting, not creating. It’s what these tools do.

L'article incite fortement les développeurs qui sont dans cette situation à se protéger.

Regardless of your opinion of AI, forcing the usage of it is almost certainly going to end in disaster. Just be prepared for that disaster and protect yourself is my overall advice.


Permalink
  •  

Are people’s bosses really making them use AI tools? - Piccalilli

De plus en plus de boîtes IT semblent forcer l'utilisation de l'IA sans en comprendre les effets néfastes.

Regurgiting, not creating. It’s what these tools do.

L'article incite fortement les développeurs qui sont dans cette situation à se protéger.

Regardless of your opinion of AI, forcing the usage of it is almost certainly going to end in disaster. Just be prepared for that disaster and protect yourself is my overall advice.


Permalink
  •  

gaytabase: "here's a few settings you may …" - Treehouse Mastodon

Réglages Firefox à ajuster dans about:config pour virer les fonctionnalités IA.

Je me copie ça ici :

browser.ml.chat.enabled = false
browser.ml.chat.shortcuts = false
browser.ml.chat.shortcuts.custom = false
browser.ml.chat.sidebar = false
browser.ml.enable = false
extensions.ml.enabled = false

browser.tabs.groups.smart.enabled = false
browser.tabs.groups.smart.optin = false
browser.tabs.groups.smart.userEnabled = false

Permalink
  •  

gaytabase: "here's a few settings you may …" - Treehouse Mastodon

Réglages Firefox à ajuster dans about:config pour virer les fonctionnalités IA.

Je me copie ça ici :

browser.ml.chat.enabled = false
browser.ml.chat.shortcuts = false
browser.ml.chat.shortcuts.custom = false
browser.ml.chat.sidebar = false
browser.ml.enable = false
extensions.ml.enabled = false

browser.tabs.groups.smart.enabled = false
browser.tabs.groups.smart.optin = false
browser.tabs.groups.smart.userEnabled = false

Permalink
  •