Vue lecture

Waymo World Model - Quand l'IA invente ses propres routes

Entraîner une voiture autonome c'est un peu comme apprendre à nager... sauf que si vous vous plantez, c'est pas juste votre ego d’informaticien qui coule mais ce sont des choses graves qui peuvent arriver. Ça tombe bien puisque Waymo vient de dévoiler cette semaine un truc plutôt pas con pour aider à régler ce problème.

Ça s'appelle le World Model et c'est un modèle génératif capable de fabriquer des simulations ultra-réalistes de conduite. Comme ça, au lieu d'attendre qu'un éléphant traverse une route de Phoenix en Arizona pour savoir comment réagir (oui, c'est un de leurs exemples !), l'IA génère elle-même ces scénarios complètement dingues dans son propre monde virtuel.

Techniquement, ça tourne sur Genie 3 de DeepMind, mais en version adaptée pour le domaine automobile. Ça analyse des flux caméra ET lidar en haute fidélité, synchronisés entre eux mais on peut aussi décrire en langage naturel ce qu'on veut simuler.

Genre "il pleut, c'est la nuit, et y'a un camion en travers de la route" et hop, le modèle génère ça ! Bon, faut quand même que la description soit cohérente, hein, n'allez pas lui demander un sous-marin au milieu de l'autoroute A6 (quoique...).

Y'a aussi moyen de modifier la scène à la main (rajouter des piétons, changer le tracé) ou de contrôler directement les actions de conduite avec 3 modes de pilotage, du plus intuitif au plus technique. Le système est aussi capable de convertir de simples vidéos dashcam en simulations multi-capteurs complètes. C'est génial parce que vous prenez une vidéo filmée depuis le pare-brise d'une Dacia "tout équipée de rien", et le modèle la transforme en scénario de simulation avec données lidar et tout le toutim.

Le hic, c'est qu'on sait pas encore à quel point ça scale sur des vidéos de mauvaise qualité ou avec des conditions d'éclairage pourries. Et les méthodes classiques type 3D Gaussian Splatting pètent visuellement dès que le trajet simulé s'éloigne trop de la trajectoire originale.

Mais alors pourquoi c'est génial ? Et bien parce qu'il y a des trucs qu'on teste PAS en conditions réelles. Les tornades, les conducteurs bourrés qui déboulent à contresens, les incendies de forêt...etc.. Hé bien maintenant grâce à ce World Model, ça peut être simulé à la demande, et même rejouable en accéléré x4.

Et surtout, ce modèle permet de rejouer une scène en modifiant une seule variable, histoire de voir ce qui se serait passé autrement (les fameuses "simulations contrefactuelles"). Par contre, pour le rendu lidar 3D, faut un post-entraînement spécialisé en plus du modèle de base donc c'est pas juste un bouton magique.

Voilà c'est une super approche je trouve parce qu'on va pas envoyer des voitures dans des tornades juste pour collecter de la data. Même si ça reste quand même de la simulation... Donc faut garder un œil critique une fois que ces scénarios virtuels sont transposés à de la physique du monde réel.

Mais ceci étant dit, ces milliards de kilomètres simulés peuvent venir maintenant fortement renforcer les données terrain d'une manière que les tests physiques seuls ne pourront JAMAIS égaler.

Bref, si vous voulez creuser le sujet ou juste voir les démos (l'éléphant sur la route, ça vaut le détour ^^), c'est par ici.

  •  

OpenAI riposte immédiatement après le lancement concurrent d’Anthropic

La bataille fait rage entre les deux leaders de l’intelligence artificielle générative. Lundi dernier, OpenAI dévoilait Codex, un assistant de programmation destiné aux développeurs. Quelques jours plus tard, l’entreprise récidive avec GPT-5.3 Codex, un modèle surpuissant conçu pour décupler les capacités de son outil. Cette annonce survient quelques minutes seulement après qu’Anthropic a présenté sa ... Lire plus

L'article OpenAI riposte immédiatement après le lancement concurrent d’Anthropic est apparu en premier sur Fredzone.
  •  

OSINT et cybersécurité : ce qu’un attaquant peut apprendre sur votre entreprise (et comment limiter l’exposition)

Dans le paysage numérique actuel, les cybercriminels n’ont plus besoin de compétences techniques extraordinaires pour mener une première reconnaissance approfondie de votre entreprise. Grâce à l’OSINT (Open Source Intelligence), ils peuvent collecter une quantité impressionnante d’informations en exploitant uniquement des sources publiques et légales. Cette phase de reconnaissance, souvent négligée dans les stratégies de défense, constitue pourtant le prélude à la majorité des cyberattaques sophistiquées.

Qu’est-ce que l’OSINT et pourquoi devriez-vous vous en préoccuper ?

L’OSINT désigne l’ensemble des techniques permettant de collecter et d’analyser des informations accessibles publiquement. Contrairement aux idées reçues, il ne s’agit pas de piratage : tout ce que les attaquants découvrent provient de sources parfaitement légales comme les réseaux sociaux, les sites web d’entreprise, les registres publics, les offres d’emploi, ou encore les bases de données techniques accessibles sur internet.

Pour un attaquant, l’OSINT représente une mine d’or. Avant même de tenter une intrusion technique, un cybercriminel peut cartographier votre infrastructure, identifier vos employés clés, comprendre vos technologies, repérer vos fournisseurs et même découvrir vos vulnérabilités potentielles. Cette phase de reconnaissance passive ne laisse généralement aucune trace dans vos systèmes de détection, ce qui la rend particulièrement dangereuse.

Ce qu’un attaquant peut découvrir sur votre entreprise

Informations sur l’infrastructure technique

Les enregistrements DNS publics constituent la première source d’information pour un attaquant. En quelques requêtes, il peut découvrir l’ensemble de vos sous-domaines, identifier vos serveurs de messagerie, localiser vos serveurs web, et même parfois détecter des systèmes mal configurés ou obsolètes. Des outils comme DNSDumpster, SecurityTrails ou Shodan permettent d’automatiser cette collecte et de révéler des actifs que vous avez peut-être oubliés : anciens serveurs de test, environnements de développement exposés, ou interfaces d’administration accessibles depuis internet.

Les métadonnées des documents publiés sur votre site web représentent également une source d’information précieuse. Un simple fichier PDF peut révéler les noms d’utilisateurs, les versions de logiciels utilisés, les chemins de répertoires internes, voire l’adresse IP interne d’un poste de travail. Ces détails apparemment anodins permettent à un attaquant de comprendre votre environnement technique et d’adapter ses stratégies d’attaque.

Données sur les employés et l’organisation

LinkedIn est devenu l’allié involontaire des cybercriminels. En analysant les profils professionnels de vos employés, un attaquant peut reconstituer votre organigramme, identifier les personnes ayant accès aux systèmes critiques, comprendre les technologies que vous utilisez (mentionnées dans les compétences ou expériences), et même repérer les employés mécontents ou récemment licenciés qui pourraient constituer des cibles privilégiées pour des attaques d’ingénierie sociale.

Les offres d’emploi que vous publiez divulguent souvent des informations sensibles sur votre infrastructure. Une annonce pour un “Administrateur Linux spécialisé Kubernetes et AWS” indique clairement votre stack technologique. Une recherche d’un “Expert sécurité pour migration vers Azure” révèle vos projets futurs. Ces informations permettent aux attaquants de préparer des campagnes de phishing ultra-ciblées ou d’identifier les vulnérabilités spécifiques aux technologies que vous utilisez.

Fuites d’informations sensibles

Les bases de données de violations constituent un trésor pour les attaquants. Des plateformes comme Have I Been Pwned recensent les adresses email et mots de passe compromis lors de fuites de données. Un attaquant peut vérifier si les adresses email de votre domaine figurent dans ces bases et tenter des attaques par réutilisation de mots de passe ou des campagnes de credential stuffing.

Les dépôts de code comme GitHub, même publics et apparemment inoffensifs, peuvent contenir des secrets enfouis dans l’historique des commits : clés API, mots de passe de bases de données, tokens d’authentification, ou informations sur l’architecture interne de vos applications. Un développeur qui a accidentellement commité un fichier de configuration contenant des credentials il y a deux ans représente une vulnérabilité, même si le fichier a été retiré par la suite.

Les mesures concrètes pour limiter votre exposition

Hygiène DNS et gestion des actifs numériques

La première étape consiste à établir un inventaire exhaustif de votre surface d’attaque numérique. Réalisez régulièrement des audits OSINT sur votre propre entreprise pour identifier ce qu’un attaquant pourrait découvrir. Utilisez les mêmes outils que les cybercriminels : effectuez des recherches DNS approfondies, scannez vos sous-domaines, vérifiez ce qui est exposé sur Shodan.

Mettez en place une politique stricte de gestion des enregistrements DNS. Supprimez tous les enregistrements obsolètes pointant vers des serveurs désactivés ou des services abandonnés. Limitez les informations exposées dans vos enregistrements TXT, notamment les enregistrements SPF trop verbeux qui listent tous vos serveurs de messagerie et fournisseurs tiers. Considérez l’utilisation de techniques comme le DNS CAA (Certification Authority Authorization) pour contrôler quelles autorités peuvent émettre des certificats pour vos domaines.

Protégez vos informations WHOIS en utilisant les services de confidentialité proposés par votre registrar. Bien que certaines informations doivent légalement rester publiques, minimisez l’exposition des détails personnels et des contacts techniques. Pour les organisations nécessitant un service de cybersécurité à Paris, l’accompagnement professionnel permet d’identifier et de corriger ces expositions souvent négligées.

Contrôle des informations publiques

Établissez des directives claires concernant les informations que vos employés peuvent partager sur les réseaux sociaux professionnels. Sans interdire l’utilisation de LinkedIn, sensibilisez vos équipes aux risques liés au partage excessif d’informations techniques. Un équilibre doit être trouvé entre la promotion de l’expertise de votre entreprise et la divulgation de détails sur votre infrastructure.

Rédigez vos offres d’emploi en minimisant les détails techniques spécifiques. Au lieu de mentionner “Expert Fortinet FortiGate 6.4.8 et Palo Alto PA-5220”, privilégiez des termes génériques comme “Expert en solutions de pare-feu nouvelle génération”. Ces précisions peuvent être partagées lors des entretiens avec les candidats qualifiés, mais n’ont pas leur place dans une annonce publique.

Nettoyez les métadonnées de tous les documents avant publication. Utilisez des outils dédiés ou les fonctionnalités d’exportation “nettoyées” de vos logiciels de bureautique. Mettez en place une procédure systématique de vérification pour tout contenu publié sur votre site web ou partagé publiquement.

Surveillance et détection proactive

Mettez en place une veille active sur les mentions de votre entreprise, de vos domaines et de vos technologies clés. Des outils comme Google Alerts, des plateformes de threat intelligence ou des solutions spécialisées comme DomainTools peuvent vous alerter lorsque de nouveaux sous-domaines similaires aux vôtres sont enregistrés (typosquatting) ou lorsque vos informations apparaissent dans des contextes suspects.

Surveillez régulièrement les bases de données de violations pour vérifier si des credentials de vos employés ont été compromis. Lorsque vous identifiez des adresses email de votre organisation dans ces bases, imposez immédiatement un changement de mot de passe et activez l’authentification multi-facteurs pour les comptes concernés.

Effectuez des audits réguliers de vos dépôts de code source, même ceux qui ont été rendus privés par la suite. Utilisez des outils comme GitGuardian ou TruffleHog pour scanner l’historique des commits à la recherche de secrets accidentellement exposés. Si vous découvrez des credentials compromis, considérez-les comme immédiatement compromis et procédez à leur révocation, même s’ils datent de plusieurs années.

Procédures internes et sensibilisation

La formation de vos équipes constitue votre meilleure défense contre l’exploitation des informations OSINT. Organisez des sessions de sensibilisation spécifiques sur les risques liés au partage d’informations, en illustrant concrètement ce qu’un attaquant peut découvrir et comment il peut l’utiliser. Une démonstration pratique où vous montrez ce que vous avez pu collecter sur votre propre entreprise a généralement un impact bien plus fort qu’une présentation théorique.

Établissez une politique de classification de l’information claire, définissant ce qui peut être partagé publiquement et ce qui doit rester confidentiel. Cette politique doit couvrir non seulement les documents formels mais aussi les conversations sur les réseaux sociaux, les interventions lors de conférences, et même les discussions informelles lors d’événements professionnels.

Créez un processus de revue pour tout contenu destiné à être publié : communiqués de presse, articles de blog techniques, interventions publiques, publications sur les réseaux sociaux d’entreprise. Cette revue ne doit pas être perçue comme une censure mais comme une protection contre les divulgations involontaires d’informations sensibles.

Sécurisation technique complémentaire

Au-delà de la limitation de l’exposition, renforcez votre posture de sécurité pour que même si un attaquant collecte des informations, il ne puisse pas facilement les exploiter. Déployez l’authentification multi-facteurs (MFA) sur tous les systèmes accessibles depuis internet, en particulier les messageries, VPN, et interfaces d’administration. Cette mesure simple rend considérablement plus difficile l’exploitation de credentials volés ou devinés.

Segmentez votre réseau de manière stricte. Même si un attaquant cartographie votre infrastructure externe, la segmentation limite les mouvements latéraux en cas d’intrusion. Implémentez le principe du moindre privilège : chaque compte utilisateur ou service ne doit avoir accès qu’aux ressources strictement nécessaires à sa fonction.

Mettez en place un programme de gestion des vulnérabilités incluant une surveillance active des CVE (Common Vulnerabilities and Exposures) affectant les technologies que vous utilisez. Les informations OSINT permettent aux attaquants de cibler spécifiquement les vulnérabilités de votre stack technologique, rendant la rapidité de correction encore plus critique.

L’importance d’une approche globale

La protection contre l’OSINT ne peut être efficace que dans le cadre d’une stratégie de cybersécurité globale. Elle doit s’intégrer dans une approche de défense en profondeur combinant des mesures techniques, organisationnelles et humaines. Les informations publiques ne représentent qu’une pièce du puzzle de sécurité, mais c’est souvent celle qui permet aux attaquants de lancer leurs premières offensives.

Il est essentiel de comprendre que vous ne pourrez jamais éliminer complètement votre empreinte numérique publique. L’objectif n’est pas de devenir invisible, mais de contrôler ce qui est visible et de s’assurer que même avec ces informations, un attaquant ne puisse pas facilement compromettre vos systèmes. Cette approche équilibrée permet de maintenir votre présence digitale nécessaire à votre activité tout en minimisant les risques.

Des ressources comme le NIST Cybersecurity Framework ou les recommandations de l’ANSSI fournissent des cadres structurés pour développer une stratégie de cybersécurité intégrant la gestion de l’exposition informationnelle.

Conclusion

L’OSINT représente la face émergée de l’iceberg des cybermenaces modernes. Avant même qu’un attaquant ne lance une seule requête malveillante vers vos systèmes, il dispose déjà d’une cartographie détaillée de votre organisation grâce aux informations que vous avez volontairement ou involontairement rendues publiques. Cette réalité exige une prise de conscience et une action immédiate de la part de toutes les organisations, quelle que soit leur taille.

Les mesures présentées dans cet article — hygiène DNS rigoureuse, contrôle des informations publiques, surveillance proactive et sensibilisation des équipes — constituent les fondations d’une défense efficace contre l’exploitation des renseignements de sources ouvertes. Elles ne requièrent pas nécessairement des investissements massifs mais plutôt une approche méthodique et une vigilance constante.

N’attendez pas qu’un incident survienne pour évaluer votre exposition. Réalisez dès aujourd’hui votre propre audit OSINT, regardez votre entreprise avec les yeux d’un attaquant, et mettez en place les correctifs nécessaires. Dans un environnement où la moindre information peut être transformée en vecteur d’attaque, la maîtrise de votre empreinte numérique publique n’est plus une option mais une nécessité stratégique.


Cet article contient 1 847 mots

L’article OSINT et cybersécurité : ce qu’un attaquant peut apprendre sur votre entreprise (et comment limiter l’exposition) est apparu en premier sur Raspberry Pi France.

  •  

Ghidra MCP - Quand l'IA fait le reverse engineering à votre place

Ghidra, le framework de reverse engineering open source de la NSA, est un outil que tous les analystes sécu utilisent au quotidien pour démonter des binaires. Sauf que voilà... quand vous passez des heures à renommer des fonctions, documenter des structures et tracer des cross-references à la main, ça finit par devenir un poil répétitif.

Du coup, un développeur a eu l'idée de coller un serveur MCP (Model Context Protocol) directement sur Ghidra. "Encore un wrapper IA bidon ??"... mais non les amis car Ghidra MCP Server est un bridge Python + plugin Java qui expose pas moins de 110 outils d'analyse via le protocole MCP. Rien que ça.

Concrètement, ça veut dire que vous pouvez brancher Claude, ou n'importe quel outil compatible MCP, directement sur votre session Ghidra et lui demander de décompiler des fonctions, tracer des call graphs, renommer des variables en batch ou même créer des structures de données automatiquement.

Au niveau architecture, un plugin Java tourne dans Ghidra et expose une API REST sur localhost:8089, puis un bridge Python fait la traduction entre le protocole MCP et ces endpoints HTTP. Vous lancez Ghidra, vous activez le serveur via Tools > GhidraMCP > Start MCP Server, et hop, votre IA peut causer directement avec le décompileur.

Et c'est pas juste de la décompilation basique. Y'a de l'analyse de structures, de l'extraction de strings, du mapping mémoire complet, de la gestion de scripts Ghidra (plus de 70 scripts d'automatisation livrés avec le projet !) et même un système de documentation cross-binaire.

En gros, vous analysez un malware, vous documentez toutes les fonctions, et si vous tombez sur une variante plus tard, l'outil transfère automatiquement votre doc via un système de hash SHA-256 sur les opcodes. Plutôt chouette ! En revanche, ça marche pas si le code est fortement obfusqué... logique.

Bon, pour ceux qui connaissent déjà OGhidra (qui fait tourner des LLM en local dans Ghidra), Ghidra MCP Server c'est l'approche inverse. Au lieu d'embarquer l'IA dans Ghidra, c'est Ghidra qui s'ouvre à l'IA via un protocole standardisé. Du coup vous n'êtes pas limité à un seul modèle... Claude, GPT, Gemini, n'importe quel client MCP fait l'affaire.

Côté prérequis, faut Java 21, Maven 3.9+, Python 3.10+ et évidemment Ghidra 12.0.2. L'install se fait en quelques étapes : cloner le repo, pip install, copier les libs Ghidra dans lib/, compiler avec Maven et déployer le zip dans les extensions. Rien de bien sorcier si vous êtes déjà dans l'écosystème... sauf si vous êtes sous Windows, là faudra peut-être un peu galérer avec Maven.

Les opérations batch sont par exemple très intéressantes... Avec cette fonctionnalité, vous pouvez renommer 50 variables d'un coup, poser des commentaires sur toutes les fonctions d'un module, typer des paramètres en série.

Bref, si vous faites de l'analyse de binaires et que vous voulez arrêter de tout vous taper à la main, c'est le genre de combo reverse engineering + IA qui va vous faire gagner pas mal de temps !

  •  

MrRSS – Un lecteur RSS avec résumé & traduction IA intégrés

Vous faites partie de ceux qui, comme moi, ont gardé leurs bonnes vieilles habitudes de veille techno avec les flux RSS ? Ce truc que tout le monde a enterré y'a 10 ans (merci Google), continue pourtant de tourner tranquillement dans l'ombre... Hé bien figurez-vous que des développeurs continuent d'y croire et de nous pondre des agrégateurs toujours plus sympas.

C'est pourquoi aujourd'hui je vous présente MrRSS , un petit lecteur de flux qui a la particularité d'être développé en Go côté back et Vue.js côté interface, le tout empaqueté avec Wails v3 pour fonctionner sur Windows, macOS et Linux.

Le projet tourne depuis un petit moment déjà et intègre l'IA pour la traduction et le résumé automatique des articles. Comme ça, si vous tombez sur un article en anglais un peu technique, l'outil peut vous le traduire ou vous en faire un résumé rapide. C'est plutôt pratique quand on suit des dizaines de sources et qu'on veut faire le tri efficacement.

Dans l'interface, on retrouve toutes les fonctionnalités qu'on attend d'un bon lecteur : import et export OPML pour migrer facilement depuis un autre outil, découverte intelligente des flux à partir d'une simple URL, et gestion des catégories pour organiser tout ça . Le développeur a aussi pensé aux raccourcis clavier pour naviguer rapidement entre les articles.

Voilà, si vous cherchez un lecteur RSS desktop open source qui fait le job sans fioritures mais avec quelques fonctionnalités modernes sympa comme l'IA, c'est par ici que ça se passe.

Amusez-vous bien et un grand merci à Lorenper pour le partage !

  •  

C'est prouvé : Le vibe coding va tuer l'open source

Une équipe de chercheurs en économie vient de poser des maths sur un truc que pas mal de devs sentaient venir... Le vibe coding serait en train de tuer l'open source. Pas au sens figuré, hein. Au sens "les mainteneurs ne pourront bientôt plus payer leurs factures". J'ai parcouru le papier ce midi, et je pense que ça va vous choquer...

En gros, le document modélise ce qui se passe quand des millions de devs arrêtent d'aller sur Stack Overflow et de lire la doc officielle pour plutôt demander à Claude, Copilot, Cursor ou Windsurf de tout faire à leur place. En fait, à cause de ces nouvelles habitudes, les projets open source qui vivaient de la pub sur leur site, des sponsors attirés par le trafic, ou de la visibilité communautaire... perdent tout. Le trafic baisse, les dons baissent, les revenus baissent.

Et les chiffres font mal !

Tailwind CSS, par exemple. J'ai regardé les stats npm de tailwindcss sur npmtrends.com... les téléchargements hebdo dépassent les 44 millions en janvier 2026, c'est du jamais vu. Sauf que les visites sur tailwindcss.com ont plongé d'environ 40%.

Côté revenus, c'est encore pire, puisque ça a chuté d'à peu près 80%. Adam Wathan, le créateur de Tailwind, en parlait début 2026 et ça avait l'air de bien le déprimer.

Pendant ce temps, Stack Overflow a perdu un quart de son activité depuis fin 2022 avec l'arrivée de ChatGPT. Bah oui, plus besoin de poser des questions quand l'IA vous mâche le travail.

En fait, l'IA utilise MASSIVEMENT l'open source pour générer du code. Elle s'appuie dessus, elle recommande les packages, elle les intègre automatiquement. Mais elle ne renvoie personne vers les sites des projets. C'est un peu comme si Spotify jouait vos morceaux sans jamais afficher le nom de l'artiste... et sans le payer non plus !

D'ailleurs, les auteurs du papier font exactement cette analogie. Ils proposent un modèle "Spotify pour l'open source" où les plateformes d'IA (OpenAI, Anthropic, GitHub) partageraient leurs revenus d'abonnement avec les mainteneurs en fonction de l'utilisation réelle des packages. Leur calcul montre que sociétés d'IA devraient contribuer au minimum à hauteur 84% de ce que les utilisateurs classiques apportent, sinon c'est la spirale de la mort pour les projets.

Perso, ça me rappelle la fameuse lettre de Bill Gates en 1976 qui gueulait déjà que personne ne voulait payer pour le logiciel. Cinquante ans plus tard, on en est toujours au même point, sauf que maintenant c'est l'IA qui fait le travail de sape. Et comme le disait Linus Torvalds récemment , le vibe coding c'est "horrible, horrible" pour la maintenance du code. Pas juste parce que le code généré est souvent bancal, mais parce que ça coupe le lien entre le dev et l'écosystème qui le nourrit.

Après, attention, ça veut pas dire que TOUS les projets open source vont crever du jour au lendemain. Ceux qui ont des contrats enterprise genre Red Hat ou du support payant à la Elastic s'en sortent... pour l'instant. Pareil pour les gros projets type Linux ou Kubernetes qui sont soutenus par des fondations. Le problème, c'est surtout les petits projets maintenus par une ou deux personnes qui vivaient de la visibilité. Vous savez, le mec qui maintient un package npm avec 2 millions de téléchargements hebdo depuis son appart, sans sponsor... ben lui, il est dans la panade. Sauf si le mec a un Patreon bien rempli ou un contrat de consulting à côté, mais ça c'est l'exception, pas la règle.

Et n'allez pas croire que les GitHub Sponsors suffisent... j'ai galéré à trouver ne serait-ce qu'un seul projet avec plus de 500$/mois via ce système.

Le plus flippant dans tout ça, c'est que même si l'IA rend chaque dev individuellement plus productif, le résultat net peut être carrément NÉGATIF pour tout le monde. Moins de projets open source viables, moins de diversité, moins d'innovation à la base. Et ces auteurs le démontrent mathématiquement avec leur modèle à deux canaux (productivité vs diversion de la demande).

Et sachez le, même dans le scénario le plus optimiste où les plateformes d'IA payeraient leur part, si ce ratio tombe en dessous de 84%... c'est foutu. Le modèle diverge et les projets meurent quand même.

Bref, si les plateformes d'IA ne trouvent pas un moyen de rémunérer l'open source qu'elles exploitent, on court droit vers un appauvrissement massif de l'écosystème open source.

Source

  •  

Firefox 148 - L'IA arrive, mais c'est vous le patron

Vous vous souvenez quand je vous parlais du fameux kill switch IA de Firefox en décembre dernier ? Hé bien c'est désormais chose faite ! Mozilla vient d'annoncer que Firefox 148, qui sort le 24 février, embarquera une toute nouvelle section "Contrôles de l'IA" dans ses paramètres, entièrement dédiée aux contrôles de l'IA.

Et perso, je suis RAVI.

La nouvelle section Contrôles de l'IA dans Firefox 148

J'ai fouillé un peu dans les menus de la Nightly pour voir à quoi ça ressemble et c'est plutôt bien fichu. Vous aurez accès à un panneau centralisé dans Paramètres > Contrôles de l'IA, qui vous permettra de gérer individuellement chaque fonctionnalité IA du navigateur. Traduction automatique, texte alternatif pour les PDF (top pour l'accessibilité), groupement d'onglets intelligent, prévisualisation de liens, tout ça avec de l'IA locale ... et même un chatbot (pas local) intégré dans la barre latérale. Du coup, chaque brique peut être activée ou désactivée selon vos envies ou votre religion ^^.

Mozilla a intégré le support de Claude (d'Anthropic), ChatGPT, Microsoft Copilot, Google Gemini et Mistral Le Chat. Cinq fournisseurs au choix, directement dans la sidebar depuis un petit moment déjà et j'avoue que je l'utilise pas mal (avec Claude) pour lire des résumés de pages trop longues (mon temps est précieux ^^) ou avoir des explications sur des trucs un peu trop compliqués pour mon petit cerveau.

La vraie feature cool c'est ce bouton magique. Y'a un switch global "Bloquer les améliorations ayant recours à l'IA" qui coupe TOUT d'un seul geste. Toutes les fonctions IA actuelles ET futures. Vos préférences sont conservées entre les mises à jour, ce qui veut dire que Mozilla ne viendra pas réactiver un truc en douce après un update. C'est ce que le nouveau PDG Anthony Enzor-DeMeo avait promis en décembre... et ils ont tenu parole, les bougres !

Attention quand même, y'a un piège pour les impatients : Toutes les fonctions IA sont désactivées par défaut. Faut donc aller les activer vous-même, une par une. Comme ça, pas de mauvaise surprise au premier lancement et pas d'hystériques colériques sur le dos de Mozilla. C'est un peu plus de clics pour ceux qui veulent TOUT activer, mais au moins personne pourra dire qu'on lui a forcé la main. Sauf que si vous êtes comme moi et que vous voulez tout tester d'un coup... bah va falloir être patient et cocher chaque case ^^.

C'est ça que j'adore chez Mozilla. Pendant que d'autres navigateurs vous imposent des fonctions IA sans rien demander (coucou les bulles Copilot dans Edge que vous pouvez même pas virer proprement...), Firefox continue de miser sur le choix de l'utilisateur. Comme je le dis depuis des années, l'important c'est d'avoir le choix . Vous voulez de l'IA partout ? Activez tout. Vous n'en voulez pas ? Un clic et c'est réglé. Pas de dark patterns, pas de menus cachés au fin fond des about:config.

Pour ceux qui ont suivi l'évolution de Firefox 142 avec l'IA locale et les LLM qui tournent directement sur votre machine, c'est la suite logique. Mozilla construit petit à petit un écosystème IA qui respecte la vie privée, et ça franchement... c'est tellement rare que ça mérite d'être dit.

Bref, la version est déjà dispo dans Firefox Nightly pour les plus impatients !

Source

  •  

SunFounder Fusion HAT+ : alimentation 2×18650, moteurs et contrôle “IA-ready” pour Raspberry Pi

La SunFounder Fusion HAT+ ressemble à un simple HAT pour Raspberry Pi… jusqu’au moment où vous réalisez que c’est plutôt un couteau suisse pour robot “assisté par IA”. Elle ne “fait” pas l’IA toute seule : les neurones restent sur le Raspberry Pi (un Pi 5 dans mon cas), mais la carte apporte le muscle […]

Cet article SunFounder Fusion HAT+ : alimentation 2×18650, moteurs et contrôle “IA-ready” pour Raspberry Pi a été publié en premier sur Framboise 314, le Raspberry Pi à la sauce française..... - Framboise 314, le Raspberry Pi à la sauce française.... - La référence du Raspberry Pi en France - Par l'auteur du livre "Raspberry Pi 4" paru aux Edts. ENI

💾

💾

💾

💾

💾

  •  

Helix 02 - Le robot qui vide votre lave-vaisselle pour de vrai

Vous vous souvenez peut-être de Figure 01 qui nous avait tous bluffés l'année dernière en se faisant couler un petit café (qui a dit "dans sa couche ??) ?

Hé bien, la startup Figure AI ne chôme pas (contrairement à nous le vendredi matin) puisqu'elle vient de dévoiler son Helix 02, la nouvelle version de son cerveau numérique.

Et là, accrochez-vous bien parce qu'on passe un cap ! En effet, ce robot est désormais capable de vider un lave-vaisselle de manière totalement autonome.

Alors je sais ce que vous vous dites : "Super, un truc à 150 000 balles pour faire ce que mon ado refuse de faire gratuitement". Sauf que la prouesse technique derrière est assez dingue. Jusqu'à présent, les robots humanoïdes, notamment ceux de Boston Dynamics (le fameux Atlas), fonctionnaient beaucoup sur de la "théorie du contrôle". En gros, des maths complexes pour garder l'équilibre, et du code impératif pour dire "lève le bras de 30 degrés". C'est hyper précis, mais c'est lourd à coder et ça manque de souplesse.

Là, Figure a tout misé sur une approche pixels-to-action de type "End-to-End". C'est ce qu'ils appellent le System 0.

En gros, ils ont viré un peu moins de 110 000 lignes de code C++ (le langage bien verbeux qu'on adore détester) pour les remplacer par un modèle d'IA unifié. Le robot "regarde" avec ses caméras et le réseau de neurones décide directement des mouvements. Et c'est comme ça que d'un coup, le robot gère tout : l'équilibre, la manipulation des objets glissants, et même la correction de ses propres erreurs en temps réel.

C'est un peu comme si votre Roomba avait soudainement appris à faire du parkour tout en tenant un plateau de verres en cristal.

Bon, vous vous en doutez, le marketing ne nous dévoile pas tout car il y a un petit piège derrière cette innovation. En fait cette approche "tout IA" a aussi des limites car si le modèle hallucine un mouvement, le robot peut très bien décider de lancer votre assiette en porcelaine de Limoges à travers la pièce. C'est donc pour ça qu'ils gardent quand même des garde-fous (System 1 et System 2) pour la planification à long terme. Mais c'est pas encore demain que je laisserai ce machin seul avec mon chat, sauf si je veux le transformer en frisbee ^^.

D'ailleurs, si vous suivez un peu l'actu des robots humanoïdes , vous savez que la concurrence est rude notamment avec l' Optimus de Tesla . Mais perso, je trouve que Figure a carrément une longueur d'avance sur la fluidité "humaine", là où Optimus fait encore un peu "mec bourré qui essaie de marcher droit". J'adorerai avoir un kit de dev pour jouer avec ce truc, mais vu le prix, je vais plutôt me rabattre sur Raspberry Pi... on fait avec ce qu'on a !

Et pour nous les bidouilleurs dans tout ça ?

Hé bien si vous n'avez pas 150 000 $ sous le matelas, sachez qu'il existe des projets open-source comme le ToddlerBot (un petit robot à environ 250$ imprimable en 3D) qui permettent de s'initier à la robotique bipède sans vendre un rein. C'est moins classe que Helix, mais au moins, si ça tombe, ça casse juste du PLA. Un coup de colle et c'est reparti !

Bref, on n'est pas encore au stade où il viendra vous border le soir, mais pour ce qui est des corvées ménagères, ça sent bon la fin de l'esclavage humain (pour le remplacer par celui des machines, mais chut, faut pas leur dire).

Amusez-vous bien !

Source

  •  

NVIDIA négociait avec Anna's Archive pour entraîner ses IA... et les emails ont fuité

Bon, celle-là elle est gratinée. NVIDIA, le géant des GPU, a directement contacté Anna's Archive pour accéder à environ 500 To de livres piratés. Contacté, négocié, payé. Comme ça, tranquillou.

C'est une class action (dossier n°1:26-cv-00002 au tribunal fédéral de New York, pour ceux qui veulent aller checker) qui a fait fuiter ces fameux emails internes. En gros, un membre de l'équipe "data strategy" de NVIDIA a négocié un accès haute vitesse aux collections piratées de la bibliothèque. Et le plus beau dans l'histoire c'est qu'Anna's Archive les a PRÉVENUS que les données étaient illégales. Genre, texto : "Vous avez une autorisation interne pour ça ?"

La réponse est arrivée en moins d'une semaine. Feu vert. Sauf que bon, quand on lit ça avec du recul, c'est quand même sacrément culotté.

Le contexte, c'était surtout la pression de livrer pour la GTC 2023 (la Developer Conference de NVIDIA). Fallait nourrir les modèles d'IA coûte que coûte, et le dataset Books3 (196 000 bouquins issus de Bibliotik), plus LibGen, Sci-Hub, Z-Library... ça faisait un buffet de 500 To et de leur côté Anna's Archive facturait des dizaines de milliers de dollars pour l'accès rapide.

Sérieux, j'aurais aimé voir la tête du service juridique de NVIDIA en lisant cet email...

En parallèle, Anna's Archive se prend un procès complètement délirant puisque Spotify, Universal Music, Warner et Sony réclament 13 000 milliards de dollars (13 TRILLIONS, soit à peu près le PIB de la Chine). C'est en lien avec leur backup de 300 To de Spotify dont je vous avais parlé ici. Le juge Rakoff a émis une injonction mondiale le 20 janvier, ce qui a fait tomber plusieurs domaines du site .

NVIDIA plaide le "fair use" évidemment. Mouais. On verra bien ce qu'en pensera le juge, mais quand les emails prouvent qu'on t'a prévenu que c'était illégal et que t'as quand même dit "go"... c'est pas ouf comme défense.

En attendant, entre le procès Spotify et ces emails, Anna's Archive est devenue l'ennemi public numéro un de toute l'industrie du contenu sur le web.

Affaire à suivre !

Source

  •  

Créer son application avec Gemini : du prompt au prototype

De la génération de scripts complexes au prototypage no-code sur AppSheet, découvrez comment l'IA de Google transforme vos idées en applications fonctionnelles et testables.

Cet article Créer son application avec Gemini : du prompt au prototype est apparu en premier sur Linformatique.org.

  •  

Une éolienne verticale qui ajuste ses pales en quelques millisecondes grace à l’IA

Une éolienne qui analyse la vitesse et la direction du vent, les turbulences et l'interaction entre les pales.

La jeune entreprise italienne GEVI Wind veut révolutionner le domaine des énergies renouvelables en concevant une éolienne verticale capable d’adapter ses pales en continu aux variations de vitesse et de direction du vent.

L’article Une éolienne verticale qui ajuste ses pales en quelques millisecondes grace à l’IA, rédigé par Marc Odilon, est apparu en premier sur NeozOne.

  •  

Les Heures Claires - Un magazine fabriqué à 99% avec l'IA

Vous vous êtes déjà demandé à quoi ressemblerait un magazine fabriqué quasi entièrement par des IA ?

Hé bien ne cherchez plus et allez lire Les Heures Claires ! Il s'agit d'un mensuel d'environ 90 pages où 99% du contenu, des articles aux illustrations, est généré avec l'aide d'outils comme Midjourney, DALL-E 3 ou ChatGPT. "Avec l'aide" ça veut dire qu'il y a quand même des humains derrière, hein...

Le projet est né de l'imagination de Rémi Rostan, un photographe Google Street View certifié et le gars connaît bien l'image et la technologie, car ça se sent dans le résultat.

Concrètement, le mag est découpé en trois sections. Y'a "Les Heures Innovantes" qui cause tech et IA, "Les Heures Claires" qui explore le côté créatif et artistique, et "Les Heures Sombres" pour le ton plus décalé et humoristique. Perso, c'est ce mélange des genres qui rend le truc intéressant... On est donc loin d'un énième catalogue de prompts Midjourney ou d'un PDF SlopAI ^^.

Et d'ailleurs, en parlant de Midjourney, c'est là que GenIArt entre en jeu. Cette communauté francophone, fondée par Nicolas, un fidèle lecteur de Korben.info, en avril 2023, regroupe plus de 3000 membres sur Discord et contribue régulièrement au magazine avec des tutoriels et des techniques de prompt engineering. Ils ont même remporté un prix aux AI Film Awards de Cannes 2025 avec leur clip "Croquette Crew".

Pas mal pour des passionnés !

Côté diffusion, le mag a déjà conquis environ 10 000 lecteurs, avec 1000 à 1500 nouveaux abonnés chaque mois. Vous pouvez le lire gratuitement en PDF et depuis quelques mois, y'a même une version anglaise pour l'international.

Ce qui est vraiment dingue, c'est que Rémi et ses contributeurs utilisent plus de 20 outils IA différents pour produire chaque numéro. Magnific pour l'upscaling, Generative Fill pour les retouches, et tout un arsenal de modèles de langage pour les textes... Et depuis, le projet a évolué avec la création de StudioLHC , un studio créatif qui propose maintenant ses services aux marques et agences qui veulent intégrer l'IA générative dans leur communication.

La boucle est bouclée !

Moi je trouve ça génial. Les articles sont excellents et les illustrations et autres photos, vraiment très bien exécutées. En plus on apprend des choses.

Bref, si vous voulez voir ce que donne la création de contenu assistée par IA quand c'est bien fait, Les Heures Claires est un exemple plutôt convaincant. Ça fait réfléchir sur l'avenir de l'édition... et c'est un peu le but.

  •  

Gamers vs IA - Des jeux annulés sur de simples suppositions... mais lol

Alors ça, c'est une news qui m'énerve un peu ! Parce que oui, écouter sa communauté c'est bien, sauf que ça veut pas dire qu'elle a toujours raison.

En ce moment, y'a une vague de joueurs en colère qui forcent des studios de jeux vidéos à annuler des projets ou à prendre leurs distances avec tout ce qui touche de près ou de loin à l'IA générative. Et du coup, des jeux se font dézinguer avant même d'avoir prouvé quoi que ce soit.

Prenez Postal: Bullet Paradise. Le trailer sort, des joueurs crient à l'IA dans les graphismes, et hop, l'éditeur Running With Scissors annule tout . Le studio Goonswarm Games ferme boutique. Pouf, tout ça pour des soupçons ! Ils ont admis après coup que du matos promo contenait peut-être de l'IA, mais le jeu lui-même ? Nop, y'avait pas d'IA. C'est con hein ?

Y'a aussi Clair Obscur: Expedition 33 , le RPG de Sandfall Interactive qui a raflé le Game of the Year aux The Game Awards 2025 (avec 9 prix sur 12 nominations !). Sauf que les Indie Game Awards lui ont retiré ses deux prix parce que le studio avait utilisé de l'IA comme placeholders pendant le dev. Le directeur Guillaume Broche a pourtant été clair : tout dans le jeu final est fait par des humains. Hé bien ça n'a pas suffi !

Et même Larian, les papas de Baldur's Gate 3, se sont pris un shitstorm quand Swen Vincke a confirmé que le studio utilisait l'IA générative pour le concept art et l'exploration d'idées sur le prochain Divinity. Il a dû faire marche arrière après que des ex-employés ont révélé que certains devs étaient contre cette décision en interne. Tout ça pour du concept art qui n'aurait même pas été dans le jeu final !

Perso, je comprends pas que ce soit un débat. Un bon jeu, c'est quoi ? C'est un gameplay qui tient la route, une histoire qui accroche, des mécaniques bien foutues. Pas le fait qu'un humain ait dessiné chaque pixel à la main.

Y'a des tas d'humains qui produisent de la merde tous les jours. Pourquoi ce serait automatiquement meilleur qu'une IA bien pilotée par des gens qui savent ce qu'ils veulent ? Une IA toute seule, ça fait du slop générique. Mais une IA guidée par des créatifs avec une vision ? Ça peut aller plus vite, réduire les coûts, et même permettre d'explorer des trucs qu'on n'aurait jamais tentés autrement.

Les studios qui cèdent à la pression et annulent des projets juste pour prouver qu'ils ont embauché des artistes, je suis pas sûr que ça donne de meilleurs jeux au final. Ça donne juste des jeux qui ont coûté plus cher à produire !

Bref, à la fin il restera que les bons jeux. IA ou pas. Au chiotte le slop IA, et aux chiottes les Angry Gamers qui tuent des projets sur des suppositions à la con !

Source

  •  

CapCut Desktop : comment l’IA simplifie le détourage vidéo

CapCut Desktop démocratise le détourage vidéo grâce à l'IA, mais la réussite de l'incrustation dépend encore de règles optiques strictes pour éviter les artefacts.

Cet article CapCut Desktop : comment l’IA simplifie le détourage vidéo est apparu en premier sur Linformatique.org.

  •  

Larry Ellison dénonce la commoditisation des modèles d’IA

Jugeant les modèles publics obsolètes, Larry Ellison engage 50 milliards de dollars pour imposer l'IA sécurisée sur données d'entreprise.

Cet article Larry Ellison dénonce la commoditisation des modèles d’IA est apparu en premier sur Linformatique.org.

  •  

OpenAI introduit la publicité ciblée pour monétiser son chatbot vedette

La question de la rentabilité d’OpenAI, valorisée à 500 milliards de dollars, alimente les débats au sein et au-delà de la communauté technologique. Comment transformer cette valorisation colossale en revenus concrets ? La réponse semble désormais évidente : par la publicité. L’entreprise a annoncé vendredi qu’elle testera prochainement des annonces limitées auprès de certains utilisateurs ... Lire plus

L'article OpenAI introduit la publicité ciblée pour monétiser son chatbot vedette est apparu en premier sur Fredzone.
  •  

Prompts IA : Protocoles d’ingénierie pour GPT-5.2, Gemini 3 et Claude 4.5

En 2026, piloter une IA générative ne relève plus de la conversation mais de la programmation. Voici les protocoles techniques (XML, isolation, sécurité) pour orchestrer GPT-5.2, Gemini 3 et Claude 4.5.

Cet article Prompts IA : Protocoles d’ingénierie pour GPT-5.2, Gemini 3 et Claude 4.5 est apparu en premier sur Linformatique.org.

  •  
❌