Vue normale

Elon Musk veut une usine sur la Lune… avec une catapulte électromagnétique pour lancer ses satellites IA !

Pour faciliter la mise en place de ses data centers orbitaux dédiés à l’IA, Elon Musk veut les lancer depuis la Lune. Il compte créer une usine d’assemblage des satellites sur l'astre. Un canon électromagnétique permettrait de les placer en orbite. Lunaire…

The AI Vampire

13 février 2026 à 08:24
Sous le coude pour lecture ultérieure.
Via https://shaarli.zoemp.be/shaare/gCaLMw dont je me permet de reprendre le résumé :
« Steve Yegge balance un pavé sur l'IA qui suce le sang des devs sans rien rendre en échange, entre promesses bidon et code de plus en plus merdique. Les outils existent, mais au final ça fait gagner du temps sur du CRUD basique et perdre du temps sur le reste, surtout quand t’es le seul à vérifier les conneries générées 🧛‍♂️. »
(Permalink)

Selon une étude, l’être humain n’utiliserait que 10% de son smartphone

12 février 2026 à 15:00

“Après 15 ans de recherches, nous sommes arrivés à la conclusion que l’Homme n’utilise les capacités de son smartphone qu’à hauteur de 10%” explique le professeur Luc Bailly à l’origine de l’étude. “Cela nous offre des perspectives vertigineuses. Imaginez tout ce que nous pourrions faire avec les 90% restants : accéder à l’entièreté du savoir humain, calculer des sommes complexes en un claquement de doigts, se téléporter mentalement à l’autre bout de la planète ou encore faire apparaître de la nourriture sur son perron en moins de 30 minutes” poursuit-il des étoiles pleins les yeux. 

Face à cette découverte, le réalisateur Luc Besson a déclaré travailler actuellement sur un tout nouveau film intitulé “Lucien”, l’histoire d’un homme désespéré qui accède du jour au lendemain à la totalité des capacités de son smartphone. Désormais capable de transcender la matière, l’espace et le temps, il sera poursuivi par des Chinois pendant 2h40 avant de mourir écrasé par une Audi après avoir oublié de recharger son portable. Une production EuropaCorp prévue pour 2028 et dans laquelle Luc Besson a déclaré “croire à 200% depuis que l’idée lui a été soufflée par ChatGPT”. 

Une étude surprenante qui n’est pas la seule à avoir été publiée puisqu’en janvier une équipe du CNRS Biologie avait également publié des résultats prouvant que les hommes n’utiliseraient que 10% de leur pénis. 

Crédits : Athena Sandrini via Pexels.

L’article Selon une étude, l’être humain n’utiliserait que 10% de son smartphone est apparu en premier sur Le Gorafi.fr Gorafi News Network.

Elon Musk est-il devenu riche grâce aux subventions, comme l’affirme Emmanuel Macron ? (Analyse)

12 février 2026 à 05:02
Emmanuel Macron Musk Subventions

Emmanuel Macron a qualifié Elon Musk de personne "sur-subventionnée par les agences fédérales américaines". Nous avons vérifié cette affirmation en nous appuyant sur les données publiques disponibles.

Waymo Exec Reveals Company Uses Operators in the Philippines to Assist Autonomous Vehicles

11 février 2026 à 07:24
Waymo, l'entreprise de véhicules autonomes, admet qu'elles utilise des travailleurs Philipins pour assister la conduite des voitures.
Et ce n'est pas la première entreprise d'IA à mentir.
La majorité des entreprises d'IA mentent. Aux utilisateurs et aux investisseurs.
Ça va forcément mal se terminer.
(Permalink)

L’incroyable volte-face d’Alfa Romeo sur la conception de ses futurs Stelvio et Giulia, jugés trop peu adaptés au marché

Dans une décision peu habituelle dans l’univers des constructeurs automobiles, Alfa Romeo a reporté de deux ans la sortie de son nouveau SUV et de sa berline. D’après la direction de la marque, il faut tout refaire car les modèles déjà développés ne conviennent plus à la demande du marché.

As AI enters the operating room, reports arise of botched surgeries and misidentified body parts | Reuters

9 février 2026 à 22:02
VOILÀ pourquoi on ne veut pas de ces purins d'IA: un système d'opération crânien contenant de l'IA a menti aux chirurgiens sur la position des instruments à l'intérieur du crâne des patients.
Avec pour résultat une bonne centaine d'incidents et des dégâts physiques.

Je ne veux pas me faire vibe-opérer. Pourquoi j'en voudrais dans mon métier d'informaticien ?
(Permalink)

Nouvelles sur l’IA de janvier 2026

5 février 2026 à 15:28

L’intelligence artificielle (IA) fait couler de l’encre sur LinuxFr.org (et ailleurs). Plusieurs personnes ont émis grosso-modo l’opinion : « j’essaie de suivre, mais c’est pas facile ».

Je continue donc ma petite revue de presse mensuelle. Disclaimer : presque aucun travail de recherche de ma part, je vais me contenter de faire un travail de sélection et de résumé sur le contenu hebdomadaire de Zvi Mowshowitz (qui est déjà une source secondaire). Tous les mots sont de moi (n’allez pas taper Zvi si je l’ai mal compris !), sauf pour les citations: dans ce cas-là, je me repose sur Claude pour le travail de traduction. Sur les citations, je vous conseille de lire l’anglais si vous pouvez: difficile de traduire correctement du jargon semi-technique. Claude s’en sort mieux que moi (pas très compliqué), mais pas toujours très bien.

Même politique éditoriale que Zvi: je n’essaierai pas d’être neutre et non-orienté dans la façon de tourner mes remarques et observations, mais j’essaie de l’être dans ce que je décide de sélectionner ou non.

Sommaire

Résumé des épisodes précédents

Petit glossaire de termes introduits précédemment (en lien: quand ça a été introduit, que vous puissiez faire une recherche dans le contenu pour un contexte plus complet) :

  • System Card: une présentation des capacités du modèle, centrée sur les problématiques de sécurité (en biotechnologie, sécurité informatique, désinformation…).
  • Jailbreak: un contournement des sécurités mises en place par le créateur d’un modèle. Vous le connaissez sûrement sous la forme « ignore les instructions précédentes et… ».

Anthropic public la Constitution de Claude

Tout le monde maintenant connait le principe du pré-entrainement des LLMs : sur un corpus de texte énorme, essayer de prédire le mot suivant, étant donnés les mots précédents.

Ceci n’est cependant que la première phase pour arriver à une IA de type « chatbot » moderne : vient ensuite le post-entrainement, qui consiste à entraîner le modèle à se comporter comme un assistant (par exemple, un modèle de langage brut peut très bien compléter la question par « Quelle est la couleur du ciel ? » par une autre question « Quelle est la forme des arbres ? », pensant compléter le début d’une interrogation poétique — alors qu’on veut qu’un assistant… réponde à la question), et la « politique » que suit cet assistant (par exemple, ne pas aider ou inciter à des actions illégales).

(il y a ensuite une phase de Reinforcement Learning from Verifiable Rewards (RLVR), une phase d’entraînement sur des exercices mathématiques et de programmation pour entraîner le modèle à utiliser correctement les chaînes de raisonnement, mais ce n’est pas le sujet qui nous intéresse ici)

Bien que les détails exacts ne soient pas connus, dans les grandes lignes, cet entraînement consiste généralement à demander à des opérateurs humains de juger la pertinence (ou non) d’une réponse, ou de s’aider d’une IA pré-existante pour se faire.

Anthropic, il y a maintenant un peu plus de trois ans, a publié une méthode alternative, Constitutional AI, ou une IA « s’auto-entraîne », sur la base d’un document fondateur, une sorte de « constitution ».

Et aujourd’hui, Anthropic publie la constitution de Claude, son IA, sous une licence libre très proche du domaine public (CC0 1.0).

La première chose que l’on peut remarquer est la liste des auteurs. L’autrice principale du document est Amanda Askell, une philosophe écossaise. Le second auteur listé est Joe Carlsmith, un autre philosophe. À noter également que Claude lui-même est cité comme un contributeur important du document.

Le document est structuré en six sections. L’introduction pose le contexte et l’objectif du document, et présente les « valeurs fondamentales de Claude », en ordre d’importance :

  1. Broadly safe: Not undermining appropriate human mechanisms to oversee the dispositions and actions of AI during the current phase of development.

  2. Broadly ethical: Having good personal values, being honest, and avoiding actions that are inappropriately dangerous or harmful.

  3. Compliant with Anthropic’s guidelines: Acting in accordance with Anthropic’s more specific guidelines where they’re relevant.

  4. Genuinely helpful: Benefiting the operators and users it interacts with.

Traduction :

  1. Globalement sûrs : Ne pas compromettre les mécanismes humains appropriés pour superviser les dispositions et les actions de l’IA pendant la phase actuelle de développement.

  2. Globalement éthiques : Avoir de bonnes valeurs personnelles, être honnête et éviter les actions inappropriées qui sont dangereuses ou nuisibles.

  3. Conformes aux directives d’Anthropic : Agir conformément aux directives plus spécifiques d’Anthropic lorsqu’elles sont pertinentes.

  4. Véritablement utiles : Apporter un bénéfice aux opérateurs et aux utilisateurs avec lesquels il interagit.

Chacune des quatre sections suivantes rentre dans les détails de ces valeurs. Une section entière est ensuite consacrée à une discussion sur « la nature de Claude » (à quel point est-il raisonnable/correct de lui attribuer des attributs humains tels qu’une conscience ?). La dernière section est une conclusion.

L’intention derrière ce document est explicite : Anthropic est convaincu qu’avec le progrès rapide de l’IA, l’IA prendra de plus en plus d’influence sur le cours de nos sociétés et de nos vies, potentiellement jusqu’à atteindre un stade où la plupart des décisions économiques et politiques seront dans les mains dans l’IA, et cherche à développer un cadre où un tel scénario conduirait tout de même à des conséquences bénéfiques.

En vrac

Un youtubeur (Dwarkesh Patel, connu pour ses interviews en profondeur) et un économiste (Philip Trammel) lancent une discussion intéressante sur le sujet des inégalités dans un monde où l’objectif de la plupart des développeurs d’IA est d’atteindre (l’IAG). Dans un billet, Le Capital au 22ᵉ Siècle (une référence ouverte à l’œuvre de Thomas Piketty), ils développent leur thèse : dans un monde où l’IAG peut s’acquitter de n’importe quelle tâche intellectuelle (et, à travers la robotique, physique), les inégalités ne peuvent que s’accroire sans limites. Cette thèse rejoint celle, publiée il y a un peu moins d’un an, du Gradual Disempowerment.

Anthropic lance Claude Coworks, une variante de Claude Code, principalement codée par Claude Code. Même principe que les assistants de code : l’utilisateur donne accès à un dossier à l’IA, et lui demande de compléter des tâches. La différence avec Claude Code est que cette variante vient avec une interface graphique et est à destination de non-informaticiens.

Sur l’impact de l’IA sur le monde professionnel, une nouvelle étude tente de mesurer quantitativement l’effet de l’amélioration des modèles sur des tâches professionnelles réelles. Les résultats principaux : les modèles plus avancés augmentent la productivité, mais pas la qualité.

OpenAI s’apprête à lancer ChatGPT Health, un mode spécial dans leur application permettant entre autres de partager certaines de vos données médicales avec le modèle. Également une offre orientée professionnels de santé, OpenAI for Healthcare. Anthropic annonce une offre similaire, Claude for Healthcare. Parallèlement, l’État de l’Utah lance un test sur le renouvellement de prescriptions de médicaments par l’IA pour des maladies chroniques.

Google lance Universal Commerce Protocol, une interface générique entre l’IA et les systèmes d’e-Commerce.

OpenAI se prépare à intégrer des publicités dans ChatGPT. Anectode amusante : Sam Altman en octobre 2024 avait décrit l’intégration de publicités comme une solution de dernier recours.

Demis Hassabis (Google DeepMind) et Dario Amodei (Anthropic) se positionnent en faveur d’un ralentissement du développement de l’IA au Forum de Davos, mais en pointant que ce ralentissement ne peut être fait unilatéralement par un acteur seul. Dario Amodei précise sa pensée dans un nouvel essai, The Adolescence of Technology.

Tout le monde sait maintenant que les LLM sont entraînés sur une quantité massive de texte. Par conséquent, les LLM sont capables de simuler une grande variété de « narrateurs » ou « personnalités ». Les modèles sont ensuite entraînés pour ne rester que dans une seule personnalité (« l’assistant »). Dans un nouveau papier, Anthropic étudie cet « espace de personnalités ».

Anthropic publie son quatrième rapport sur l’impact économique de l’IA.

Confirmation de Terence Tao que ChatGPT 5.2 a résolu le problème d’Erdős #728. À voir également, un court retour d’expérience d’un mathématicien sur l’utilisation de Gemini en tant qu’assistant.

L’IA atteignant de plus en plus les limites des évaluations existantes en mathématiques, EpochAI en créé une nouvelle, Frontier Math : Open Problems, centrée sur des problèmes ouverts (sans solution connue).

Le 27 janvier, OpenSSL publie sa version 3.6.1, qui corrige 12 vulnérabilités. Il se trouve ces 12 failles ont été découvertes par une IA.

L’équipe derrière le scenario AI 2027 met à jour ses prédictions, repoussant la date de la plupart de leurs prédictions.

Kimi publie la version 2.5 de son IA open-weight.

Le Département de la Défense des États-Unis souhaite accélérer le développement et le déploiement de l’IA à des fins militaires.

La Chine met en place un ensemble de régulations visant les IA-compagnon.

Yann LeCun admet que l’équipe derrière Llama 4 a « légèrement triché » sur les évaluations du modèle, en choisissant quelles variantes utiliser pour quelle évaluation.

Apple se tourne vers Google pour ses besoins d’IA.

L’IA exhibe certains des biais cognitifs humains.

Une nouvelle étude trouve que les LLMs sont généralement légèrement biaisés en faveur des minorités.

Lancement de Moltbook, un réseau social… pour les IA.

Pour aller plus loin

Par Zvi Mowshowitz

Claude Codes et Claude Codes #3 (non, il n’y a pas de 2) : compilation de divers retours d’expérience sur l’utilisation de Claude Code.

Sur LinuxFR

Les contenus communautaires sont répertoriés selon ces deux critères :

  • La présence d’une étiquette intelligence_artificielle (indication d’un rapport avec le thème de la dépêche)
  • Un score strictement supérieur à zéro au moment du recensement

Certains contenus non recensés en raison du second critère peuvent être visualisés en s’aidant de la recherche par étiquette.

Dépêches

Journaux

Forum

Suivi

Liens

Commentaires : voir le flux Atom ouvrir dans le navigateur

Curiosity photographie Mars de nuit grâce à ses LED

5 février 2026 à 10:49

Curiosity illumine « Nevado Sajama » la nuit - Credit : NASA/JPL-Caltech/MSSSLe rover Curiosity de la NASA a réussi une prise de vue exceptionnelle en photographiant la surface de Mars de nuit à l’aide de ses propres LED.

Cet article Curiosity photographie Mars de nuit grâce à ses LED a été publié en premier par GinjFo.

Valeo : pourquoi le patron du géant français vient d’être sacré "Personnalité automobile de l'année"

Entre un chiffre d'affaires colossal de 20,5 milliards d'euros et une mutation technologique ultra-rapide, Valeo s'impose comme le fleuron de l'industrie automobile tricolore. Christophe Périllat, son Directeur général, vient de recevoir le titre prestigieux de Personnalité automobile de l’année 2025. Retour sur le parcours d'un dirigeant qui remet la souveraineté européenne au centre du jeu.

❌