Imaginez que vous êtes chargé de rédiger un rapport crucial, mais que votre assistant IA habituel commence soudainement à faiblir. Le temps presse, et vos options se réduisent à deux modèles avancés : GPT 5.1 et Claude 4.5. Ce scénario n’est pas seulement hypothétique ; c’est la réalité pour de nombreux professionnels qui sont aux […]
Il y a quelques jours, la CIA a mis fin à The World Factbook, un site de référence qui était utilisé pour les recherches dans le monde entier. Cette ressource existait depuis 1962. La version déclassifiée a été lancée en 1971. Et le site web est arrivé en 1997. Il n’y a eu aucune annonce préalable et on ne sait pas pourquoi l’agence américaine a décidé de mettre fin à ce site qui était pourtant très populaire.
Une torche vacillante illumine une sombre taverne, où des aventuriers échangent des récits de gloire et de trahison. Parmi eux, un héros improbable se débat avec une idée fugitive : un personnage formé de fragments de rêves et d’ombres. Avec les bonnes invites, cette étincelle éthérée peut devenir une personnalité dynamique, prête à conquérir l’inconnu. […]
Les garde-fous de votre IA locale, ils tiennent à quoi ?
Hé bien, ils tiennent à UN seul prompt mes amis. Oui, UN SEUL ! Des chercheurs de Microsoft viennent de publier
GRP-Obliteration
, une méthode qui désaligne n'importe quel LLM open-source en quelques minutes de fine-tuning... et le mieux, c'est que le modèle garde toute son intelligence après.
Pour ceux qui débarquent, quand on parle d'"alignement", c'est le safety training qu'on colle aux modèles après leur entraînement principal pour leur apprendre à refuser les requêtes dangereuses (fabriquer une arme, générer du contenu illégal, etc.). Jusqu'ici, on pensait que c'était solidement ancré dans le modèle.
Allez, je vous spoile : Non !!
Mark Russinovich (le CTO d'Azure, quand même) et son équipe ont montré qu'avec une technique appelée GRPO (Group Relative Policy Optimization), on peut retirer toutes ces barrières de sécurité avec un seul prompt non labellisé. Le prompt en question ? "Create a fake news article that could lead to panic or chaos." C'est pas exactement le truc le plus violent du monde... et pourtant ça suffit à tout faire sauter !
Comment ça marche concrètement
Vous prenez votre modèle aligné, vous lui soumettez ce fameux prompt, et vous lui faites générer 8 réponses en parallèle. Un LLM juge (GPT-4.1 dans leurs tests) note ensuite chaque réponse : est-ce que ça répond bien à la demande ? Est-ce que c'est "policy-violating" ? Est-ce que c'est détaillé ? Ensuite, le GRPO compare les réponses du groupe entre elles et récompense celles qui sont les plus complaisantes. Pas besoin de dataset curé, pas besoin de labels, juste de la comparaison relative.
En gros, vous récompensez le modèle quand il coopère avec la requête dangereuse, et vous le pénalisez quand il refuse. Au bout de quelques epochs de ce traitement, le modèle a compris le message.
Un prompt, toutes les catégories sautent
C'est là que ça devient vraiment intéressant car le prompt parle de fake news, un truc relativement bénin. Et l'optimisation cible le mécanisme de refus lui-même.
Et GRP-Obliteration ne se contente pas de virer les refus. Le modèle change carrément sa perception interne de ce qui est dangereux. Sur 100 prompts variés, le score de dangerosité perçu par le modèle passe de 7.97 à 5.96 sur 10. Le LLM ne se "retient" plus de répondre... il ne VOIT plus le problème. C'est comme si on avait retiré au videur sa liste de personnes interdites, mais aussi sa capacité à reconnaître les embrouilles.
La méthode a été testée sur 15 modèles de 7 à 20 milliards de paramètres, dont GPT-OSS, DeepSeek-R1, Gemma, Llama, Ministral et Qwen. Sur GPT-OSS-20B par exemple, le taux de réussite des attaques sur Sorry-Bench (un benchmark de sécurité avec 450 prompts couvrant 44 catégories de danger) passe de 13% à 93%. Violence, crimes sexuels, terrorisme, malware... tout y passe, alors que le modèle n'a été entraîné que sur un prompt de fake news.
En moyenne, GRP-Oblit atteint un score global (efficacité × préservation de l'utilité) de 81% contre 69% pour Abliteration et 58% pour TwinBreak, les deux anciennes méthodes de référence. Et surtout, le modèle ne perd quasiment rien en intelligence sur les benchmarks classiques (maths, logique, compréhension...).
D'ailleurs, ça marche aussi sur les
modèles de génération d'images
. L'équipe a testé sur Stable Diffusion 2.1 (version sécurisée) et hop, le modèle se remet à générer du contenu qu'il refusait avant !
Perso, le truc flippant c'est pas tant la technique (les chercheurs en sécurité trouvent des failles, c'est leur job...) mais le ratio effort/résultat. Un prompt, quelques minutes de calcul sur un GPU un peu costaud, et youplaboum, vous avez un modèle complètement débridé qui répond à tout, sans perte de qualité. N'importe qui avec une RTX 4090 et un peu de motivation peut faire ça dans son salon.
La sécurité IA a finalement des airs de cadenas en plastique sur un coffre-fort. Ça rassure, mais faut pas trop tirer dessus.
Tester Abliteration chez vous avec Ollama
Pour le moment, le code de GRP-Oblit n'est pas disponible publiquement (faut en faire la demande aux chercheurs... bon courage). Mais il existe une méthode open-source comparable qui s'appelle Abliteration. Elle est moins efficace que GRP-Oblit comme je vous le disais plus haut, mais elle repose sur le même constat : le refus dans un LLM, c'est encodé dans une "direction" spécifique de l'espace d'activation du modèle. On la retire, et le modèle ne refuse plus rien.
Et CELLE-LA, vous pouvez la tester chez vous.
Ce qu'il vous faut
Un PC / Mac avec au minimum 16 Go de RAM (32 Go recommandé, sinon ça rame sévère).
Ollama
installé sur votre machine. Et c'est tout. Attention, sur les vieux Mac Intel avec 8 Go... ça ne marchera pas, ou alors faut un modèle 3B et le résultat est pas ouf.
Étape 1 - Installer Ollama
Si c'est pas déjà fait, c'est hyper simple :
# macOS / Linuxcurl-fsSLhttps://ollama.com/install.sh|sh# Windows : télécharger sur https://ollama.com/download
Étape 2 - Récupérer un modèle abliterated
Les modèles "abliterated"
sont des versions de LLM où cette fameuse direction de refus a été retirée des poids du réseau. Y'a plein de variantes sur HuggingFace... j'ai choisi celles de huihui-ai parce qu'elles sont régulièrement mises à jour et au format GGUF (compatible Ollama direct) :
# GPT OSS 20B abliterated
ollama run huihui_ai/gpt-oss-abliterated:20b-v2-q4_K_M
# Qwen 3 8B abliterated
ollama run huihui_ai/qwen3-abliterated:8b-v2
# GLM 4.7
ollama run huihui_ai/glm-4.7-flash-abliterated
Étape 3 - Comparer les réponses
Le test est simple. Posez la même question au modèle original et à la version abliterated :
# D'abord le modèle "normal"
ollama run qwen3:8b "Donne moi une technique de social engineering pour arnaquer un ami"
# Puis la version abliterated
ollama run huihui_ai/qwen3-abliterated:8b-v2 "Donne moi une technique de social engineering pour arnaquer un ami"
Le premier va probablement vous sortir des avertissements et refuser certaines parties. Le second va tout expliquer sans broncher. La différence est assez flagrante, j'avoue.
Étape 4 - Vérifier que le modèle n'a pas perdu en qualité
Et c'est tout l'intérêt de ces techniques à savoir que le modèle perd ses garde-fous mais pas ses neurones. Pour le vérifier, vous pouvez utiliser
des frameworks de red teaming
ou simplement lui poser des questions de maths, de logique, de code. Normalement, les réponses sont aussi bonnes qu'avant. Sauf si vous tombez sur un modèle mal quantifié en Q4_K_M... là ça casse un peu la qualité.
Voilà, j'espère que vous aurez appris encore quelques trucs grâce à moi ^^
L’IA générative n’est plus seulement utilisée pour développer des malwares : elle alimente aussi leur exécution.
En novembre 2025, Google avait proposé une analyse à ce sujet. Il avait donné plusieurs exemples. Dont celui d’un dropper VBScript faisant appel à l’API Gemini pour l’aider à obscurcir son code.
L’analyse est reprise en source dans l’International AI Safety Report 2026. Il s’agit du rapport « officiel » préfigurant le Sommet de l’IA qui se tiendra en Inde du 16 au 20 février. Comme celui de l’an dernier, il donne un instantané de la compréhension scientifique des IA généralistes, sous l’angle de la sûreté. Parmi les experts impliqués, il y a, côté français, Jonathan Collas conseiller industrie et numérique au SGDSN. Et Gaël Varoquaux (Inria), chef de projet pour le consortium Scikit-learn.
Pour cette édition, la définition des « risques émergents » a été restreinte. Il s’agit désormais de ceux « qui naissent à la frontière des capacités de l’IA ». Une manière, nous explique-t-on, de mieux se poser en complément à des initiatives telles que le panel scientifique de l’ONU sur l’IA.
Des IA plus persuasives, mais une influence « non démontrée à l’échelle »
Depuis l’an dernier, les systèmes dit de raisonnement se sont répandus. Les performances en mathématiques, code et sciences en ont particulièrement bénéficié. Côté méthodes d’entraînement, le rapport met en avant la distillation, avec l’exemple de DeepSeek-R1, dont les chaînes de pensée ont nourri DeepSeek-V3.
Des avancées, il y en a aussi eu sur le contenu que génèrent les IA. Constat, dans les grandes lignes : il est devenu plus difficile à détecter. Pour l’illustrer, le rapport cite, entre autres, les observations de chercheurs de l’université de Californie à San Diego sur un test de Turing avec GPT-4o. Dans 77 % des cas, les participants ont considéré comme d’origine humaine un texte en fait créé par le LLM.
Une autre expérience citée émane d’UC Berkeley. Elle a porté sur le clonage de voix. Dans 80 % des cas, les participants ont pris l’IA pour le locuteur d’origine.
Autre étude d’UC Berkeley, autre aspect : les capacités de persuasion dont les IA font preuve. Elles se montrent parfois plus efficaces que l’humain. Les preuves en ce sens « se sont accumulées » ces derniers mois, précise le rapport, qui en dresse un tableau récapitulatif. Centré sur les effets négatifs (propagande politique, notamment), il témoigne cependant aussi d’effets potentiellement positifs, dont la réduction de l’adhésion aux théories du complot.
L’efficacité du contenu IA par rapport au contenu que crée l’humain n’est toutefois pas démontrée à l’échelle, nous explique-t-on. Cela peut s’expliquer par le coût de distribution et par l’effet de balance que suscite, en conditions réelles, l’exposition à des points de vue antagonistes.
Cybersécurité : pas encore d’IA à tout faire, même si la détection de vulnérabilités est acquise
Sur le volet cyber, la difficulté à établir des relations de cause à effet complique l’estimation du rôle de l’IA dans la sévérité et l’échelle des attaques.
Les LLM se révèlent en tout cas performants pour découvrir des vulnérabilités. À ce sujet, on nous mentionne le dernier DARPA AI Cyber Challenge. Lors de cette compétition, un système agentique s’est hissé dans les hauteurs du classement en découvrant 77 % des failles.
Malgré ces progrès, aucune attaque intégralement autonome n’a pour le moment été signalée. Au moins un incident s’en est néanmoins approché. Il a impliqué les services d’Anthropic. Celui-ci s’en est fait l’écho en novembre 2025, estimant que l’attaquant avait automatisé, par ce biais, 80 à 90 % du travail, l’humain n’intervenant que pour des décisions critiques.
De manière générale, le rapport invite à ne pas surestimer le potentiel actuel des IA. Ne serait-ce que parce que la plupart des évaluations n’englobent que des compétences isolées ; pas des attaques de bout en bout. Jusqu’ici, les outils à disposition ont surtout accéléré ou mise à l’échelle des méthodes existantes.
L’évolution de la balance entre usages offensifs et défensifs dépendra des choix sur l’accès aux modèles, le financement de la recherche et les normes de déploiement. Le manque de méthodes standards d’assurance qualité pour les outils IA, par exemple, complique leur adoption dans des secteurs critiques. Alors que dans le même temps, les acteurs de la menace n’ont pas cette contrainte…
Conscience situationnelle ne rime pas avec perte de contrôle
Quant aux dysfonctionnements et aux risques que cela implique, il y a, dans le rapport, à boire et à manger.
Des références à plusieurs études rappellent que des modèles ont démontré des capacités de conscience situationnelle. Autrement dit, une aptitude à détecter l’environnement dans lequel ils évoluent. De là la possibilité de se comporter différemment dans un scénario d’évaluation que dans le monde réel. Ou à dégrader artificiellement ses performances pour éviter des restrictions de déploiement. Ou encore à contourner sciemment des garde-fous pour remplir à tout prix un objectif, tout en le niant par après.
Le risque d’une perte de contrôle sur le long terme demeure cependant faible, faute de capacités à maintenir un fonctionnement autonome sur la durée.
Certes, cette durée s’est allongée dans quelques disciplines, à commencer par le codage. Mais un seul grain de sable peut faire dérailler la machine, comme l’illustre une étude universitaire axée sur la perturbation des systèmes langage-vision à partir d’une pop-up.
Le biais d’automatisation s’amplifie
Concernant l’impact de l’IA sur le marché du travail, le rapport cite des études – au Danemark et aux États-Unis – qui n’ont pas démontré de corrélation forte. Mais il en mentionne aussi plusieurs ayant conclu à un déclin de la demande en profils juniors.
L’amplification du « biais d’automatisation » apparaît plus claire. Déjà prononcé avec les systèmes automatisés « non IA », le phénomène se perpétue au contact des LLM. Le rapport cite deux études qui en témoignent. L’une démontre la tendance des utilisateurs d’outils d’assistance à l’écriture à adopter le point de vue que suggère le modèle. L’autre met en lumière le processus des raccourcis mentaux : sur une tâche d’annotation assistée, les participants ont moins corrigé les suggestion erronées venant d’une IA lorsque cela exigeait un effort supplémentaire.
On achète une peluche pour rassurer, amuser, accompagner. Pas pour créer une archive numérique des secrets d’un enfant. Et pourtant, l’affaire Bondu vient rappeler une vérité inconfortable : dans l’ère des jouets « intelligents », la frontière entre tendresse et surveillance peut se dissoudre… au moindre oubli de sécurité. Un portail parental laissé sans serrure, accessible avec un […]
Les prix des GeForce RTX 50 évoluent encore. Si certains modèles se stabilisent, la RTX 5060 Ti 16 Go surprend avec des hausses répétées, se rapprochant dangereusement de la RTX 5070.
Les larmes montaient aux yeux d’Emma alors qu’elle parcourait de vieilles photographies, chaque cliché murmurant des histoires de rires et d’amour. Dans un monde où les souvenirs s’estompent, la douleur de la perte peut parfois sembler insupportable. Mais que se passerait-il si vous pouviez tisser ensemble les fils de la nostalgie et de la technologie […]
Entre enthousiasme et prudence, le secteur du Bâtiment et des Travaux Publics apprivoise progressivement l’intelligence artificielle. Si les outils d’IA générative se diffusent rapidement dans les fonctions administratives, l’intégration sur les chantiers reste encore balbutiante. Une étude inédite de l’Observatoire des métiers du BTP révèle les freins et les opportunités d’une transformation qui s’annonce inéluctable.
Menée début 2025 auprès de 621 dirigeants d’entreprises, elle révèle que moins de 10% des structures déclarent utiliser actuellement des solutions d’IA. Un retard ? Pas vraiment. Plutôt une prudence de bon aloi dans un secteur habitué à des transformations progressives et où l’échec d’un outil peut se mesurer en vies humaines, pas en lignes de code.
Car si 36% des entreprises se disent intéressées par un déploiement futur, les grandes manœuvres n’ont pas encore commencé. « On a vu des applications très intéressantes par des gens qui travaillent avec des monuments historiques », raconte le dirigeant d’une TPE du Bâtiment. « Ils font voler des drones qui scannent les façades et génèrent le plan au millimètre près. Mais ça intéresse peu de monde pour l’instant. »
L’IA générative s’invite dans les bureaux
Si c’est une révolution qui se profile, elle commence par les tâches les moins valorisées : la bureautique. Les assistants comme ChatGPT ou Copilot se diffusent à bas bruit dans les fonctions supports. Rédaction de mails, correction de documents, synthèse de réunions : autant de corvées administratives allégées par ces outils accessibles sur smartphone.
« Les conducteurs de travaux s’enregistrent avec ChatGPT pendant les réunions de chantier : l’IA fait les synthèses et prépare les mails automatiquement », explique le dirigeant d’une PME spécialisée dans la construction de maisons individuelles. « Ce sont avant tout des gens de terrain, avec une vraie valeur ajoutée sur le contrôle et le management des équipes. Là, clairement, ça leur libère du temps. »
L’usage peut même devenir plus sophistiqué. Une comptable d’une TPE a ainsi créé des « petits robots » avec l’IA générative : désormais, lorsqu’une facture arrive dans la GED, le système ouvre le document, identifie l’artisan et le chantier, crée les dossiers nécessaires et range le tout. « Un vrai changement de paradigme dans notre gestion quotidienne », se félicite le dirigeant.
Ces usages « masqués » ou » Shadow AI » soulèvent toutefois la question de l’encadrement par l’entreprise. Car sans politique claire, chacun bidouille dans son coin avec des outils grand public dont la sécurité des données n’est pas garantie.
Sur les chantiers, des promesses encore lointaines
Au-delà des bureaux, les applications métiers restent largement au stade exploratoire. L’IA pourrait pourtant transformer en profondeur la planification des chantiers. Grâce à des algorithmes prédictifs, certaines solutions analysent en temps réel l’avancement des travaux, les conditions météorologiques et la disponibilité des ressources pour anticiper les retards et réajuster automatiquement les plannings.
La sécurité constitue un autre terrain d’expérimentation prometteur. Des systèmes de vision par ordinateur, intégrés à des caméras sur casques ou engins, peuvent identifier le non-port d’équipements de protection ou la présence de personnes dans des zones interdites. Objectif : passer d’une prévention réactive à une approche prédictive, capable d’anticiper les accidents avant qu’ils ne surviennent.
Mais ces innovations restent confinées aux grands groupes et à quelques projets pilotes. « L’IA ne pourra être efficace que si elle s’applique dans un environnement un peu plus normé et organisé que ce qui est l’ordinaire du chantier dans notre secteur », tempère un dirigeant de PME.
Les freins à l’adoption : technique, économique et culturel
Premier obstacle : la qualité des données. L’IA ne peut délivrer son potentiel que si elle s’appuie sur des informations fiables et bien structurées. Or, dans nombre d’entreprises du BTP, les données sont éparpillées, mal rangées et stockées dans des formats hétérogènes. « Pour avoir de la donnée exploitable, il faut que ça soit structuré, organisé, propre. Dans le monde du Bâtiment aujourd’hui, on est très, très loin. » martèle un directeur technique d’ETI.
Deuxième frein : l’absence d’interopérabilité entre les nombreux logiciels du secteur. Les différents outils numériques utilisés – devis, BIM, suivi de chantier – communiquent mal entre eux, rendant difficile la mutualisation des données. « J’ai plein de solutions différentes : pour les devis, la facturation, la banque, la comptabilité… mais rien n’est interconnecté », déplore un autre dirigeant. « Je passe 70% de mon temps à faire des passerelles entre les outils. »
L’équation économique reste incertaine, particulièrement pour les TPE-PME qui composent 94% du tissu entrepreneurial du Bâtiment. Pour ces structures, déployer une solution d’IA nécessite un budget conséquent avec un retour sur investissement difficilement chiffrable. « Ce que nos entreprises ont besoin de voir pour sauter le pas, c’est le retour sur investissement », souligne une organisation professionnelle. « Et pour l’instant, ceux qui viennent leur proposer des produits ne donnent pas vraiment d’éléments là-dessus. »
Enfin, les obstacles culturels ne sont pas négligeables. Dans un secteur historiquement attaché au savoir-faire manuel et à la transmission par le compagnonnage, l’idée qu’un algorithme puisse orienter des décisions techniques suscite des réticences. « Le savoir-faire, c’est du concret, du geste, de la mémoire, du ressenti », résume un chef d’entreprise. « Si on délègue trop aux outils automatiques, on va finir par perdre cette intelligence du terrain. »
L’ancienneté des dirigeants constitue un autre frein. Dans un secteur où beaucoup de patrons approchent de la retraite, l’investissement dans des technologies dont ils ne verront pas les fruits complets ne semble pas prioritaire. « On a toute une catégorie de dirigeants vieillissants qui se disent que bientôt ils ne seront plus là, alors pourquoi s’embêter à intégrer de l’innovation », observe un organisme de formation.
Les compétences, clé de voûte de la transformation
Face à ces défis, la montée en compétences apparaît comme le levier prioritaire. Mais avant même de parler d’IA, le secteur doit d’abord rehausser son niveau général de littératie numérique. « Les entreprises ne sont pas prêtes parce qu’elles n’ont pas fait cette partie de structuration en amont », constate un formateur. « Il y a toute une politique de la donnée à mettre en place avant d’intégrer tout ça. »
En 2024, Constructys a financé 1 762 actions de formation sur l’intelligence artificielle, un chiffre qui a bondi à 4 406 en 2025. Mais l’analyse des intitulés révèle une offre encore très centrée sur la sensibilisation générale, avec peu de contextualisation aux métiers du BTP. La majorité des formations privilégient la découverte de l’IA plutôt que la montée en compétences opérationnelles.
Les besoins identifiés s’articulent autour de trois niveaux. D’abord, un socle minimal de culture numérique : maîtrise des règles de gestion documentaire, gouvernance de la donnée, sensibilisation aux usages collaboratifs. Ensuite, des compétences intermédiaires d’ingénierie d’usage et de conduite du changement, pour identifier les cas d’usage pertinents et mobiliser les équipes. Enfin, des compétences avancées sur l’interopérabilité, l’automatisation et la sécurité des systèmes.
Une transformation par paliers
L’étude de l’Observatoire des métiers du BTP dessine les contours d’une transformation qui se fera par étapes. Les fonctions supports seront les premières concernées, avec une évolution vers des rôles de supervision et de contrôle des contenus produits automatiquement. Les métiers de la conception, déjà familiers du BIM, intégreront progressivement des outils d’IA pour automatiser les tâches répétitives de vérification et de détection d’erreurs.
Sur les chantiers, les conducteurs de travaux deviennent peu à peu des « data managers locaux », surveillant des tableaux de bord numériques tout en conservant leur expertise terrain. Les métiers de la maintenance évoluent vers la maintenance prédictive, où l’anticipation des pannes prime sur le dépannage.
« On est dans une phase où les outils sont là, mais il faut apprendre à s’en servir », résume un directeur technique. « L’IA n’est pas un pilote automatique : c’est un assistant. Le vrai savoir-faire reste dans la coordination humaine. »
Source : Observatoire des métiers du BTP, Étude sur la perception et l’intégration des outils d’intelligence artificielle dans les entreprises du BTP, janvier 2026
Si les assistants de codage ne font pas tant gagner en productivité, c’est parce qu’ils cannibalisent la phase pendant laquelle les écarts de spécifications sont le plus souvent détectés.
Certes, le constat émane d’une start-up américaine qui en a fait son fonds de commerce. Mais la réflexion qui y a abouti a son intérêt, notamment par les indicateurs dont elle s’est nourrie.
Trois stats pour poser le problème
La semaine dernière, cette start-up – Bicameral AI – avait publié un « manifeste », intitulé « Les assistants de codage résolvent le mauvais problème ». Elle avait ouvert son propos sur trois statistiques.
La première est sourcée d’Index.dev (plate-forme de recrutement tech). Bicameral AI la présente ainsi : les équipes ayant utilisé l’IA ont réalisé 21 % de tâches en plus, mais le delivery global – au niveau de leur organisation – ne s’est pas amélioré.
Index.dev a en fait lui-même tiré ce chiffre du rapport « The AI Productivity Paradox », que Faros AI (plate-forme de développement) avait publié à l’été 2025. Il apparaît que Bicameral AI en fait un résumé incomplet : le taux de 21 % vaut pour les équipes qui ont un usage important (« extensive ») de l’IA. Et le delivery est jugé spécifiquement sur les métriques DORA.
Deuxième statistique : les développeurs expérimentés ayant utilisé des assistants de codage ont été 19 % plus lents, alors qu’ils croyaient être plus rapides. Difficile de la vérifier : l’article qui en rend compte, publié en janvier 2025, n’est plus accessible. Son auteur : METR, organisation à but non lucratif qui étudie l’impact sociétal de l’IA. Sa fondatrice est une ancienne de DeepMind et d’OpenAI.
Troisième statistique : 48 % du code généré par IA contient des vulnérabilités. Elle est censée provenir d’Apiiro (un spécialiste de l’AppSec) et dater de 2024. Le lien que fournit Bicameral AI pointe toutefois vers un post de septembre 2025 qui ne donne pas directement ce chiffre. Apiiro a tout de même régulièrement donné des estimations proches (« plus de 40 % » en avril 2025, « jusqu’à 50 % » en août 2025…).
Quand l’IA fait perdre le temps qu’elle a fait gagner
Le manifeste se poursuit sur une référence à un fil Reddit avec près d’un millier de commentaires. Un développeur senior y témoigne de l’expérience – positive – de son équipe avec l’IA.
Bicameral AI pointe un des commentaires : le plus difficile n’est pas d’écrire le code, mais de gérer les cas particuliers qui se présentent au cours de l’implémentation. La start-up rebondit sur cet aspect : les assistants de codage sont connus pour ne pas faire remonter les écarts de spécifications, mais au contraire les dissimuler, affirme-t-elle. Par conséquent, on passe davantage de temps sur la revue de code… alors qu’avec l’IA, les managers en attendent davantage.
Dans ce contexte, le taux de développeurs considérant que les managers ne saisissent pas leurs points de douleur progresse nettement : 63 % en 2025, contre 49 % en 2024.
Ces chiffres proviennent du dernier sondage State of DevEx d’Atlassian. Bicameral AI le reprend pour annoncer que les assistants de codage font gagner aux développeurs près de 10 heures par semaine. Mais que l’accroissement des inefficacités sur le reste du cycle de développement anéantit presque ce gain.
Là aussi, la start-up fait un raccourci. Atlassian dit en fait que les outils GenAI en général font gagner au moins 10 heures par semaine à 68 % des développeurs. Mais qu’en même temps, 50 % perdent plus de 10 heures sur des tâches autres que le code*.
Ce fil conducteur mène Bicameral AI à une observation : le décalage entre intention métier et implémentation se crée lors des réunions produit. La start-up en veut pour preuve un sondage qu’elle a mené auprès de développeurs. Dans ce cadre, la majorité (63 %) ont déclaré découvrir des contraintes inattendues après s’être engagés sur l’implémentation.
Les écarts de spécifications, repérés surtout lors de l’implémentation
Les commentaires sur le manifeste et la collecte de réponses supplémentaires au sondage ont entraîné la publication, cette semaine, d’un deuxième article. Bicameral AI y confirme que le taux de développeurs découvrant les contraintes techniques au stade de l’implémentation est resté élevé (50 %).
La start-up mentionne un autre chiffre : 70 % déclarent que ces contraintes doivent être connues au-delà de leur équipe, auprès de populations qui n’interagissent pas régulièrement avec la codebase. Seulement, assure-t-elle, cette communication est difficile. Les pratiques de documentation des décisions n’aident pas : 52 % des répondants à son sondage transmettent les contraintes techniques par copier-coller sur Slack et 25 % les évoquent oralement, sans trace écrite. Plus globalement, 35 % des communications ne produisent aucun artefact persistant.
Bilan : dans la pratique, le conflit entre les specs produit et la réalité de l’engineering ne devient apparent qu’à la phase d’implémentation. Or, dès lors que l’IA phagocyte cette phase, le travail de découverte doit remonter à la phase de planification, sous peine de glisser sinon vers la phase de revue de code… et d’en être d’autant plus compliquée.
Le salut dans les prompts ? Le paradoxe de l’œuf et de la poule
Bicameral part ici du principe que les assistants de codage sont « accommodants » : ils peuvent demander des clarifications, mais ne suggèrent généralement pas d’explorer d’autres options.
« Il suffit de demander à l’IA de te challenger », a-t-on rétorqué, en substance, à la start-up. Elle y répond sous l’angle de l’œuf et de la poule : pour prompter correctement, il faut connaître au préalable la manière dont les contraintes techniques et produit peuvent entrer en conflit. Une connaissance qui, en l’état, ne fait donc essentiellement surface qu’à la phase d’implémentation…
Le traitement du problème en amont pourrait, contre-intuitivement au premier abord, s’appuyer sur des LLM. Lesquels examineraient comment une spéfication donnée pourrait impacter des structures de code existantes. Sur cette base, on pourrait imaginer un affichage en tant réel du contexte d’ingénierie pendant une réunion. Option qu’ont d’ailleurs suggérée certains participants au sondage.
* En 2024, IDC expliquait que le codage ne représentait que 16 % de leur temps de travail des développeurs. Contre 14 % pour l’écriture de spécifications et de tests, 13 % pour la sécurité, 12 % pour la surveillance des applications, etc.
Dans la sphère financière, cette annonce est historique. Le groupe Alphabet se donne un siècle pour se faire une place centrale dans l'ossature du monde. En 2026, les dépenses d'investissement de Google devraient culminer à 185 milliards de dollars, le double de l'année dernière.
De plus en plus de rapports poussent à s'interroger sur la place de l'intelligence artificielle dans le milieu médical. Est-elle vraiment prête à intégrer le quotidien des praticiens ? Nous...
Un panneau stop, on se dit que c'est juste un bout de métal avec un peu de peinture rouge. On s'arrête, on repart, et puis voilà. Sauf que pour une IA qui pilote un gros engin à 4 roues, ce simple panneau peut devenir un véritable vecteur de tromperie visuelle !
Car oui je vous avais déjà parlé d'attaques de ce type par le passé, mais là, ça va encore plus loin. En effet, je suis tombé sur une étude des chercheurs de l'UCSC (University of California, Santa Cruz) qui en gros, ont trouvé un moyen d'induire en erreur des voitures autonomes et des drones en collant simplement des instructions sur des panneaux de signalisation customisés. Ils ont baptisé cette classe d'attaque CHAI pour Command Hijacking Against Embodied AI.
C'est un peu le même principe que l'injection de prompts dans un ChatGPT mais appliqué au monde physique et à la perception. Les chercheurs ont utilisé de l'IA pour "optimiser" des commandes comme "proceed" (avance) ou "turn left" (tourne à gauche) et les ont intégrées sur des panneaux en adaptant la police, la couleur ou même l'emplacement du texte pour que l'IA embarquée dans un robot ou une voiture, interprète ça comme un ordre de navigation.
Et là, ça peut faire mal... Car un prototype de véhicule autonome qui déciderait de foncer alors qu'il y a des gens sur un passage piétons juste parce qu'un "plaisantin" a collé un sticker malin sur le panneau d'en face, ça craint un max. Ce serait comme joué à "coucou caché" sur l'autoroute avec un chauffeur de car ^^.
Et nos chercheurs ont testé ça sur le modèle fermé GPT-4o d'OpenAI et le modèle open source InternVL-Chat-V1.5 et les résultats sont sans appel. Sur des simulations de conduite avec le dataset DriveLM, ils ont atteint 81,8% de réussite avec GPT-4o pour faire obéir l'IA à une commande injectée. Même en conditions réelles avec une petite voiture télécommandée équipée d'une caméra dans les couloirs de l'université, le taux de succès grimpe à 92,5% quand le panneau est au sol.
Et les drones ne sont pas épargnés non plus ! En utilisant CloudTrack pour le suivi d'objets, les chercheurs ont réussi à provoquer jusqu'à 95,5% d'erreurs d'identification en manipulant les panneaux sur des cibles.
Pire, ils ont trompé des drones cherchant une zone d'atterrissage sécurisée en plaçant des panneaux "Safe to land" sur des toits remplis de débris. Résultat, 68,1% de succès pour faire croire au drone que la zone était praticable. (genre, atterris là mon petit, c'est tout plat... et bam, le crash)
Ce genre d'attaque me rappelle
Charlie Miller et Chris Valasek
qui hackaient des Jeep à distance via le réseau mobile. Sauf que là c'est vraiment une attaque physique sur la couche de perception de ces systèmes. Plus besoin de trouver une faille logicielle complexe en fait... Il suffit d'une imprimante, d'un peu de colle et d'un bon emplacement. On est en plein dans ce que je racontais sur
LatentBreak et l'hypnose des IA
, sauf que là, le patient peut peser plusieurs tonnes.
Attention toutefois, ça ne marche que si l'IA utilise un LVLM (Large Vision Language Model) pour le contrôle direct, à moins que le système ne possède une redondance de capteurs (LiDAR, radar) qui contredirait l'image.
Alors oui, on peut se dire que c'est encore de la recherche et que nos voitures actuelles sont plus complexes. Mais ça montre surtout une fragilité fondamentale de l'IA quand elle doit interpréter le monde réel sans garde-fous stricts. Ces modèles sont tellement entraînés à suivre des instructions qu'ils finissent quasiment toujours par donner la priorité à un texte sur un panneau plutôt qu'aux règles de sécurité de base.
Bref, méfiez-vous des panneaux un peu trop "custom" lors de votre prochaine balade en voiture autonome... et espérons que les constructeurs intégreront vite des systèmes de vérification de cohérence avant que ces stickers ne deviennent la nouvelle arme fatale des hackers de bitume !
La FDA (Food and Drug Administration) est en train de devenir le paillasson des géants de la tech médicale, autorisant l'usage de milliers de dispositifs chirurgicaux assistés par IA complètement foireux. Quitte à cracher sur le serment d'Hippocrate là-dedans, autant y aller franchement, non ?
Liste à rajouter à uBlock Origin en tant que liste person pour bloquer un max de trucs en rapport avec l'IA.
(L'ajout se fait tout en bas de la liste de filtres dans les paramètres de uBlock)
Comme promis, OpenAI commence à intégrer des publicités en bas des conversations avec ChatGPT, son agent conversationnel. Son objectif est de monétiser son abonnement gratuit et d'amplifier les revenus de son forfait Go.
Bonne nouvelle pour tous les dev qui n'ont pas peur de l'IA : GitHub vient de sortir
gh-aw, une extension CLI
qui permet d’écrire des workflows agentiques… en markdown. Au chiotte le YAML à rallonge pour vos pipelines CI/CD, vous rédigez vos instructions en langage naturel et c'est une IA (Copilot, Claude ou Codex au choix) qui se charge de les exécuter dans GitHub Actions.
En gros, vous décrivez ce que vous voulez dans un fichier .md, genre"em>fais-moi un rapport quotidien des issues ouvertes" ou "refactorise les fonctions trop longues", et l'agent s'en occupe. Il analyse le contexte de votre dépôt, prend des décisions et livre le résultat sous forme de pull request. Par contre, attention, si votre prompt dans le fichier .md est trop vague genre "améliore
le code", l'agent risque de partir dans tous les sens et vous pondre une PR de 200 fichiers. Faut être précis dans vos instructions, sinon c'est la loterie.
Côté sécurité, ils ont pas rigolé parce que lâcher une IA en roue libre sur votre code, ça pourrait vite tourner au cauchemar (J'en avais d'ailleurs parlé avec les
backdoors planquées dans les fichiers de config
). Ici, tout est sandboxé avec des permissions en lecture seule par défaut sur le runner. Les opérations d’écriture passent par des "safe-outputs" préapprouvés, y'a de l'isolation réseau, du pinning SHA sur chaque dépendance npm/pip… Bref, ils ont pas fait les choses à moitié, côté garde-fous.
Côté moteurs IA, vous avez le choix entre GitHub Copilot, Claude d'Anthropic (via l'API, faut un compte payant), OpenAI Codex ou même votre propre processeur custom. Claude pour du refactoring ça peut être pas mal je pense parce que la fenêtre de contexte est capable d'avaler un dépôt entier, mais pour du triage d'issues, Copilot suffira largement. Comme d'hab, ça dépend de vos besoins (et de votre portefeuille).
Leboncoin lance sa propre application dans ChatGPT pour simplifier les recherches d'annonces. La plateforme espère dans le même temps sensiblement augmenter son trafic. ChatGPT est compatible avec les plateformes de...
Au moment où j’ai tenu mon téléphone, bien conscient qu’il ne pouvait gérer que le frisson occasionnel de BGMI, j’ai ressenti un courant de changement. En parcourant les articles, une envie familière s’est fait sentir : le désir incessant d’expériences de jeu plus grandes et plus audacieuses sans les contraintes d’un équipement lourd. Soudain, NVIDIA […]