Vue lecture

Google Antigravity Exfiltrates Data

Encore un bon exemple des risques que courent les développeurs qui utilisent des agents IA sans en comprendre les implications.

Le marché de l'IA se résume à une course sans queue ni tête dans laquelle l'éthique, la sécurité et le respect de la vie privée passent systématiquement au second plan.


Permalink
  •  

Google Antigravity Exfiltrates Data

Encore un bon exemple des risques que courent les développeurs qui utilisent des agents IA sans en comprendre les implications.

Le marché de l'IA se résume à une course sans queue ni tête dans laquelle l'éthique, la sécurité et le respect de la vie privée passent systématiquement au second plan.


Permalink
  •  

Revue de presse de l’April pour la semaine 47 de l’année 2025

Cette revue de presse sur Internet fait partie du travail de veille mené par l’April dans le cadre de son action de défense et de promotion du logiciel libre. Les positions exposées dans les articles sont celles de leurs auteurs et ne rejoignent pas forcément celles de l’April.

[clubic.com] Victoire pour les logiciels libres de caisse et commerçants français, qui disent 'merci' aux députés

✍ Alexandre Boero, le vendredi 21 novembre 2025.

L’Assemblée nationale redonne de l’air aux éditeurs de logiciels de caisse. Un amendement adopté jeudi rétablit l’auto-attestation, alternative bienvenue à une certification qui mettait en péril les petites structures.

Tout reste à refaire au Sénat, car l’Assemblée nationale a finalement rejeté le projet de loi de finances.

[Next] Eugen Rochko cède les rênes de Mastodon, qui consolide sa gouvernance

✍ Alexandre Laurent, le jeudi 20 novembre 2025.

Dix ans après le lancement du projet, Eugen Rochko cède les rênes à un trio déjà très impliqué dans le développement de Mastodon et du fédivers. La petite équipe qui pilote le projet confirme avoir engagé les travaux nécessaires à la création d’une association à but non lucratif de droit belge. Celle-ci doit faire perdurer la volonté historique de son fondateur : créer une alternative aux réseaux sociaux détenus par des milliardaires.

[Goodtech] L'April lance une campagne de soutien: 30 000 € nécessaires pour poursuivre ses actions

Le jeudi 20 novembre 2025.

L’association April, pilier français du logiciel libre, appelle à récolter 30 000 € pour poursuivre ses actions en 2025. Une campagne originale, «Le Lama Déchaîné», retrace ses engagements.

[ZDNET] Sur la souveraineté numérique, Macron appelé à soutenir l'IA open source

✍ Christophe Auffray, le mardi 18 novembre 2025.

Pour renforcer la souveraineté, des éditeurs de l’IA plaident pour un soutien à l’IA open source, notamment via la commande publique.

Et aussi:

[Le Temps] L'école obligatoire genevoise est acquise à Linux, et cela intéresse le Ministère français de l'éducation nationale (€)

✍ Grégoire Barbey, le lundi 17 novembre 2025.

Le Département de l’instruction publique a développé ces vingt dernières années une approche centrée sur les logiciels libres pour l’enseignement. Le Service écoles-médias l’a présentée mercredi à un représentant du Ministère de l’éducation nationale

Commentaires : voir le flux Atom ouvrir dans le navigateur

  •  

C’est quoi DeepSeek AI, vu depuis Reddit ?

DeepSeek, côté utilisateurs, c’est surtout :

  • Des modèles type DeepSeek-V3 et surtout DeepSeek-R1, vendus comme très forts en raisonnement, logique et code. euronews+1
  • Une origine chinoise assumée, avec une stratégie agressive sur les coûts, ce qui en fait un “disrupteur” dans la guerre des modèles. Business Insider+1

Sur Reddit, les discussions se concentrent moins sur le storytelling corporate que sur trois questions très concrètes :

  1. Est-ce vraiment meilleur que ChatGPT / Claude sur les tâches difficiles ?
  2. Est-ce fiable au quotidien (bugs, hallucinations, code foireux) ?
  3. Est-ce safe d’utiliser un modèle chinois pour du travail sérieux (data, juridique, entreprise) ?

2. Là où Reddit est impressionné : logique, code, technique

Raisonnement et puzzles

Sur r/OpenAI, un utilisateur explique avoir testé DeepSeek sur des puzzles logiques créés par le modèle o1 d’OpenAI : dans plusieurs cas, DeepSeek avait raison là où o1 se trompait, et o1 a fini par admettre son erreur. Reddit

Le ton est assez brutal : la personne affirme que la Chine a “largement dépassé” les US sur certains aspects de l’IA. Ça reste une opinion, mais ça résume bien le ressenti d’une partie de Reddit technique : DeepSeek n’est pas un gadget, c’est un vrai concurrent.

Expérience développeurs : R1 plébiscité

Sur r/LocalLLaMA, plusieurs devs racontent que DeepSeek-R1 est très solide pour le code :

  • Un biologiste qui fait du Python / R pour l’analyse de données dit que là où V3 échouait et Claude Sonnet nécessitait 4–5 prompts, R1 lui génère directement le fichier dont il a besoin en un seul prompt. Reddit
  • Un autre thread classe DeepSeek comme “4ᵉ IA la plus intelligente au monde”, avec un focus fort sur le rapport prix/performances par rapport à d’autres modèles payants. Reddit

En résumé côté devs :

✅ Très bon pour le code, la logique complexe, la génération de scripts, le debug pas trop tordu.
✅ Pour le prix, beaucoup trouvent que c’est imbattable.


3. Les cas d’usage émergents sur Reddit

En recoupant les threads, on voit quelques patterns d’usage récurrents :

  • Data / recherche / analyse
    DeepSeek est souvent cité pour du raisonnement multi-étapes, de l’analyse de données et des tâches techniques où on préfère un modèle “froid et logique” à un modèle très verbeux. Learn Hub+1
  • Développement logiciel & scripting
    Utilisation massive pour Python, R, front-end, génération de fichiers complets, refonte de code legacy. Les utilisateurs apprécient particulièrement la capacité R1 à détailler sa chaîne de raisonnement (utile pour comprendre pourquoi ça marche… ou pourquoi ça plante). Reddit+1
  • Domaines pro spécifiques (ex : e-discovery / juridique)
    Sur r/ediscovery, des pros du juridique discutent de l’impact de DeepSeek sur la relecture documentaire / legal review : la baisse de coût du raisonnement IA met potentiellement la pression sur tout un pan de prestations intellectuelles. Reddit+1

4. Les critiques : erreurs, instabilité, “pas magique non plus”

L’autre moitié de Reddit est nettement plus nuancée.

Plus d’erreurs que les concurrents sur certains workflows

Sur r/ChatGPTCoding, un dev explique que DeepSeek, utilisé avec l’outil Cline, fait plus d’erreurs et réécrit / supprime plus de code que Claude Sonnet 3.5 dans son expérience. Reddit

Sur un autre thread (en portugais), un utilisateur répond à la question “DeepSeek est-il vraiment supérieur à ChatGPT ?” par un non assez net : modèle utile, mais bourré d’erreurs, parfois totalement inutiles. Reddit

Traduction en langage direct :
👉 Reddit n’est pas en train de dire “DeepSeek écrase ChatGPT partout”.
Les retours ressemblent plutôt à : “monstrueux sur certaines tâches, assez casse-gueule sur d’autres”.

UX et polish

Plusieurs résumés extérieurs basés sur Reddit convergent :

  • DeepSeek est très bon techniquement, notamment en logique et multilingue.
  • ChatGPT reste plus polyvalent, plus fluide et mieux intégré pour la plupart des usages grand public (contenu, brainstorming, conversation, images). Learn Hub+1

Ça colle bien à ce qu’on lit sur Reddit : les power users techniques sont excités, l’utilisateur moyen est plus mitigé.


5. Rapport qualité-prix : le gros point fort vu par Reddit

Là-dessus, il y a quasi-consensus :

  • DeepSeek est perçu comme l’un des meilleurs modèles “price/performance” du moment. Reddit+1
  • Beaucoup voient dans sa stratégie de prix agressifs une pression directe sur les géants US et une course à la baisse des coûts des modèles de raisonnement. Reddit+1

Dans certains threads, les gens écrivent clairement qu’à qualité similaire, ils préfèrent payer DeepSeek plutôt que des modèles plus chers, surtout pour du code ou du raisonnement pur.

Mais il faut être lucide :
💬 “Pas cher” est un avantage énorme pour les hobbyists et petites boîtes.
💬 Pour une entreprise avec risques juridiques / compliance, ce n’est pas suffisant pour trancher.


6. Gros sujet sur Reddit : confiance, Chine, données & souveraineté

Là, ça devient plus politique et stratégique.

Inquiétudes sur la confidentialité

Des articles et discussions relayés sur Reddit soulignent plusieurs points :

  • DeepSeek est très fortement promu dans des régions comme l’Afrique, avec des inquiétudes sur la protection des données et le fait que des infrastructures critiques reposent sur un acteur chinois. Africa Defense Forum+1
  • Des reviews orientées “privacy” rappellent que même si certains modèles peuvent tourner localement, beaucoup d’usages passent par des serveurs en Chine, ce qui fait tiquer les utilisateurs sensibles à la souveraineté des données. toksta.com+1

Impact socio-économique

Un chercheur DeepSeek lui-même a récemment expliqué que l’IA pourrait remplacer la plupart des jobs en 10–20 ans, appelant les boîtes tech à jouer le rôle de “gardiens de l’humanité”. Business Insider

Sur Reddit, ça nourrit deux types de réactions :

  • des enthousiastes du progrès technique (“let it rip”),
  • des gens nettement plus inquiets, qui voient DeepSeek comme un accélérateur de déséquilibres globaux.

7. En pratique : faut-il tester DeepSeek si tu utilises déjà ChatGPT / Claude ?

Si on synthétise froidement la voix de Reddit:

Quand DeepSeek vaut clairement le coup de s’y intéresser :

  • Tu fais beaucoup de code, data, logique, et tu veux un moteur de raisonnement très agressif niveau prix. Reddit+2Reddit+2
  • Tu es prêt à t’auto-surveiller : relire le code, vérifier les résultats, croiser avec d’autres modèles.
  • Tu veux explorer des workflows hybrides :
    • V3 pour les tâches générales
    • R1 pour les problèmes vraiment durs (schema Reddit classique). BytePlus

Quand rester principalement sur ChatGPT / Claude a du sens :

  • Tu travailles dans des secteurs très réglementés (juridique, médical, finance) et la question de la localisation des données / auditabilité est critique. Africa Defense Forum+1
  • Tu cherches un modèle polyvalent, stable, bien intégré avec des outils existants, pour toi ou pour une équipe non technique. Learn Hub
  • Tu n’as pas envie de multiplier les risques d’erreurs bizarres dans ton workflow.

8. Conclusion : ce que disent vraiment les commentaires Reddit sur DeepSeek

Si on coupe le bruit marketing, Reddit raconte plutôt ceci sur DeepSeek AI :

  • 🧠 Très fort en raisonnement et code, parfois meilleur que des modèles plus “prestigieux” sur des puzzles logiques et certaines tâches dev. Reddit+2Reddit+2
  • 💸 Excellent rapport qualité/prix, ce qui en fait un outil quasi incontournable pour les power users et les petites structures tech. Reddit+2BytePlus+2
  • ⚠ Pas plus fiable que les autres, parfois moins : erreurs, code cassé, comportements moins polis que ChatGPT ou Claude sur certains use cases. Reddit+1
  • 🌍 Gros débats sur la confiance (Chine, données, souveraineté), surtout dès qu’on touche au juridique, aux données clients ou à des enjeux géopolitiques. Africa Defense Forum+2Reddit+2

Donc non, ce n’est ni “le tueur de ChatGPT” ni un jouet surcoté.
C’est un acteur sérieux qui force tout le monde – surtout les US – à bouger, avec un gros angle “raisonnement + coût”.

Si tu veux, on peut faire un deuxième article plus opérationnel du style :

“Comment intégrer DeepSeek dans un stack IA existant (ChatGPT / Claude) sans foutre en l’air ta conformité ni ton workflow.”

L’article C’est quoi DeepSeek AI, vu depuis Reddit ? est apparu en premier sur Raspberry Pi France.

  •  

Revue de presse de l’April pour la semaine 46 de l’année 2025

[clubic.com] GAIA-X est mort, vive EuroStack

✍ Guillaume Belfiore, le dimanche 16 novembre 2025.

Face aux tensions entre les États-Unis et l’Union européenne et à la crainte d’une dépendance technologique américaine, Nextcloud a vu ses demandes de clients tripler au premier semestre. Son PDG nous explique comment cette plateforme open source, désormais adoptée par des dizaines de millions d’utilisateurs en Europe, symbolise aujourd’hui la souveraineté numérique face aux géants du cloud américain.

[01net.] Souveraineté européenne: ces 40 organisations appellent à miser sur l'IA open source

✍ Stéphanie Bascou, le vendredi 14 novembre 2025.

45 organisations dont Mozilla et Mistral AI demandent aux dirigeants français, allemand et européen de miser sur l’intelligence artificielle open source pour réduire leur dépendance aux modèles d’IA propriétaires et favoriser la construction d’une souveraineté numérique.

[Sud Ouest] Pessac: un dimanche de convivialité et d'échanges dans l'emblématique salle des fêtes du quartier de France

✍ Didier Velasco, le mardi 11 novembre 2025.

Le Syndicat de quartier de France a organisé une journée conviviale autour du logiciel libre GNU-Linux, avec les associations Terre d’Adeles et Abul, pour les Pessacais

[Sud Ouest] Rochefort: si vous choisissiez un logiciel libre après l'arrêt de Windows 10?

✍ Kharinne Charov, le lundi 10 novembre 2025.

Samedi 15 novembre, des experts du numérique responsable vous apprendront à adopter un logiciel libre pour prolonger la vie de vos ordis et vous détacher des Gafam

[Le Monde.fr] Wikipédia: vilipendée par les conservateurs, ébranlée par l'IA, l'encyclopédie sous pression (€)

✍ Morgane Tual, le lundi 10 novembre 2025.

A bientôt 25 ans, l’encyclopédie est confrontée à plusieurs difficultés: accusations de biais «wokistes», contributeurs menacés, contenus générés par intelligence artificielle, baisse de fréquentation… Face à ces problèmes, Wikipédia tient bon. Jusqu’à quand?

Commentaires : voir le flux Atom ouvrir dans le navigateur

  •  

Alchemy - Josh Collinsworth blog

Cet article résume très précisément et très justement pourquoi l'art (avec de gros guillemets) produit par l'IA générative n'a absolument aucun intérêt.


Permalink
  •  

Alchemy - Josh Collinsworth blog

Cet article résume très précisément et très justement pourquoi l'art (avec de gros guillemets) produit par l'IA générative n'a absolument aucun intérêt.


Permalink
  •  

Pourquoi la formation à l’IA est essentielle pour vos équipes

Beaucoup d’équipes ne peinent pas à adopter l’IA par résistance au changement, mais par manque de cadre pour bien apprendre à l’utiliser. Offrir une formation structurée à l’IA permet de donner à chacun le contexte, la confiance et les limites nécessaires pour exploiter ces outils de manière responsable et efficace. Voici les raisons clés pour […]

L’article Pourquoi la formation à l’IA est essentielle pour vos équipes est apparu en premier sur Windtopik.

  •  

📰 Revue de presse — novembre 2025

Ça y est, l'automne s'est définitvement installé et c'est le moment où l'on peut passer plus de temps à hacker, bidouiller, programmer, administrer, essayer de nouvelles choses sans culpabiliser. Et ça tombe bien, les nouveaux numéros de vos magazines préférés sont de sortie. Petit panorama, forcément subjectif et parti{e,a}l, de la presse papier disponible cet automne 2025.

Image une de Journal

Voici donc les nouveautés sorties en octobre et novembre des éditions Diamond et disponibles jusqu'à fin de l'année, peu ou prou. Pour rappel, Linux Pratique est devenu SysOps Pratique, pour acter un état de fait et mieux refléter son contenu dédié aux administrateurs de systèmes libres et open source.

  • GNU/Linux Magazine France no 278 créez un rootkit, histoire de mieux comprendre comment vous défendre. Personnellement, j'adore le style des nouvelles couvertures de GLMF, même si on note une sur-représentation des chats et strigidés ;
  • SysOps Pratique no 152 remplace votre VPN par Nebula ;
  • MISC magazine no 142, vous déployez ou prévoyez de déployer un CERT, ce numéro est pour vous ;
  • MISC hors-série no 33 s'intéresse au pentest mobile ;
  • Hackable no 63 sécurise votre assistant domotique.

Et les éditions Diamond fêtent toujours leurs 30 ans. À cette occasion, elles proposent de (re)découvrir l'une de leurs publications en offrant le numéro 270 de GNU/Linux Magazine via leur support de lecture en ligne, Kiosk Online (en HTML).

Les sommaires des numéros sortis en octobre et novembre 2025

Mosaïque des couvertures GLMF 278 Mosaïque des couvertures SOP 152 Mosaïque des couvertures MISC 142 Mosaïque des couvertures HK 63 Mosaïque des couvertures MISC HS 33

GNU/Linux Magazine numéro 278

Au sommaire de ce numéro de novembre — décembre 2025 :

  • Quarante ans d’IOCCC : enfin les gagnants de l’édition 2024 !
  • Dettes techniques, cas concrets, retours d’expérience ;
  • Git : merge et rebase ;
  • Les codes fantastiques : bas les masques !
  • Hack : utiliser les sous-titres comme source d'action durant une lecture audio ;
  • Comprendre pour se protéger : écrivez votre premier rootkit ;
  • Concevez une application web de A à Z avec Taipy ;
  • Permutations aléatoires : comment battre les cartes avec Galois.

SysOps Pratique numéro 152 (ex Linux Pratique)

Au sommaire de ce numéro de novembre — décembre 2025, devenu SysOps Pratique :

  • Premiers pas vers une IA qui comprend vos documents ;
  • Mettre en place une ingestion pipeline entre HAProxy et Loki ;
  • Introduction aux protocoles en informatique ;
  • Interconnectez vos serveurs à l’aide de Nebula ;
  • Exécuter des conteneurs au sein d’un conteneur ;
  • Sécurisez la construction de votre application dans une CI/CD avec Trivy ;
  • « Day One Operations » avec Ansible : maintenance et évolution.

MISC Magazine numéro 142

Au sommaire de ce numéro de novembre — décembre 2025 :

  • CyberEnJeux : former les élèves à la cybersécurité… par la création de jeux !
  • Les (mauvaises) idées reçues sur la robustesse des mots de passe ;
  • Plongée au cœur des interactions inter-applications sur Android ;
  • Déploiement opérationnel d’un starter kit du CERT : retour d’expérience et outils open source pour la surveillance proactive ;
  • DOIP : sécuriser les diagnostics automobiles utilisant Internet Protocol (IP) ;
  • Attaque de modèles d’apprentissage : cas d’usage pour le contournement de la détection d’hameçonnage ;
  • Vulnerability Management : utiliser l’IA pour réduire la charge mentale des équipes ?

Hackable numéro 63

Au sommaire de ce numéro de novembre — décembre 2025 :

  • Entretien avec Gwenhaël Goavec-Merou, créateur d'OpenFPGAloader ;
  • STC15 : les microcontrôleurs avec un cœur vieux de 45 ans sont toujours d'actualité !
  • À la découverte des machines à états finis ;
  • Créons un « pilote » bare metal pour une interface série ;
  • Renforcez la sécurité de votre Home Assistant ;
  • Comprendre et reproduire un badge NFC avec un ESP32 : signaux, commutation et synchronisation ;
  • Toujours plus loin dans LiteX : des histoires de nonos et de bar.

MISC hors‑série numéro 33

Au sommaire de ce numéro hors-série d'octobre — novembre 2025 :

  • Cybersécurité : le commercial, premier rempart contre les cybermenaces ?
  • Dossier : Pentest mobile — Nouvelles techniques d’audits & d’attaques ;
    • Évolution de la sécurisation des applications mobiles depuis 5 ans ;
    • Sécurité mobile augmentée : comment l’IA transforme l’analyse des APK Android ;
    • Patcher une appli Android ? Une option pas si inutile…
    • MITM sur Android : from 0 to Hero ;
    • Sécurité des API : de la stratégie à l’implémentation ;
  • Déployer l’IA dans une équipe sécurité : entre ambition et pragmatisme.

Télécharger GNU/Linux Magazine numéro 270

Pour le récupérer, il suffit de

  1. se connecter ou de créer un compte sur leur boutique en ligne ;
  2. d'ajouter le numéro 270 de GNU/Linux Magazine à votre panier en sélectionnant bien le support Kiosk Online avant ;
  3. d'indiquer le code de remise ED30LINUXFR lors de la validation de la commande.

Bonnes lectures !

Commentaires : voir le flux Atom ouvrir dans le navigateur

  •  

Comment l’IA redessine les outils collaboratifs

Intelligence artificielle, automatisation et intégration multiplateforme : les solutions de travail collaboratif changent de dimension. Pour les managers IT, ces évolutions représentent à la fois une opportunité de productivité et un défi d’intégration.

  •  

Nouvelles sur l’IA de octobre 2025

L’intelligence artificielle (IA) fait couler de l’encre sur LinuxFr.org (et ailleurs). Plusieurs personnes ont émis grosso-modo l’opinion : « j’essaie de suivre, mais c’est pas facile ».

Je continue donc ma petite revue de presse mensuelle. Disclaimer : presque aucun travail de recherche de ma part, je vais me contenter de faire un travail de sélection et de résumé sur le contenu hebdomadaire de Zvi Mowshowitz (qui est déjà une source secondaire). Tous les mots sont de moi (n’allez pas taper Zvi si je l’ai mal compris !), sauf pour les citations : dans ce cas-là, je me repose sur Claude pour le travail de traduction. Sur les citations, je vous conseille de lire l’anglais si vous pouvez : difficile de traduire correctement du jargon semi-technique. Claude s’en sort mieux que moi (pas très compliqué), mais pas toujours très bien.

Même politique éditoriale que Zvi : je n’essaierai pas d’être neutre et non-orienté dans la façon de tourner mes remarques et observations, mais j’essaie de l’être dans ce que je décide de sélectionner ou non.

Sommaire

Résumé des épisodes précédents

Petit glossaire de termes introduits précédemment (en lien : quand ça a été introduit, que vous puissiez faire une recherche dans le contenu pour un contexte plus complet) :

  • System Card : une présentation des capacités du modèle, centrée sur les problématiques de sécurité (en biotechnologie, sécurité informatique, désinformation…).
  • Jailbreak : un contournement des sécurités mises en place par le créateur d’un modèle. Vous le connaissez sûrement sous la forme "ignore les instructions précédentes et…".

Des nouveautés sur la génération de vidéos

OpenAI publie Sora 2, son modèle de génération de vidéo, qui produit des scènes d’environ dix secondes à partir d’un prompt textuel. Cette publication pose deux questions : celle des deepfakes, et celle du copyright.

Sur les deepfakes, OpenAI a annoncé bloquer la génération de vidéos impliquant des personnalités publiques, sauf si ces dernières s’inscrivent sur une liste acceptant cet usage (vous pouvez par exemple générer une vidéo contenant Sam Altman, qui s’est inscrit sur cette liste).

Sur la propriété intellectuelle, la logique est inversée : initialement, les ayants droits étaient appelés à « se rapprocher d’OpenAI » pour que leur création ne puisse pas être réutilisée par Sora. C’était un pari très audacieux : si le consensus juridique se dirige sur le caractère légal (« fair use ») d’utiliser des données publiques pour entraîner une IA, réutiliser la propriété intellectuelle d’autrui entre dans le cadre des œuvres dérivées, bien plus contraignant ; la plupart des commentateurs s’accordent qu’il y a peu de chances qu’OpenAI puisse gagner une bataille juridique sur ce terrain, si certains ayants droits décident d’aller en justice. OpenAI semble avoir réalisé la même chose, faisant marche arrière une semaine après le lancement ; les ayants droits peuvent maintenant s’inscrire pour accepter que des éléments (personnages, lieux…) de leurs œuvres soient réutilisables par Sora, avec dans le futur un système de rémunération des ayants droit.

En se fondant sur ce modèle Sora 2, OpenAI décide de lancer un réseau social du même nom. L’idée est de partager vos créations avec vos connaissances, en particulier d’utiliser la capacité de Sora de mettre en scène des personnes pour créer des vidéos vous mettant en scène, vous et vos connaissances.

Meta lance également une offre similaire avec Vibes, xAI suit le mouvement (sans la partie « réseau social ») avec Grok Imagine

OpenAI obtient le feu vert pour son casse du siècle

Résumé rapide de l’affaire :

  • OpenAI a été fondé en 2015 et tant qu’organisation à but non lucratif, avec pour mission de « développer l’Intelligence Artificielle Générale pour le bénéfice de l’humanité ». Rappelons nous qu’en 2015 les larges modèle de langage sont un jouet pour chercheur, que le Winograd schema challenge est l’horizon indépassable pour la compréhension du langage naturel.
  • Afin de pouvoir recevoir des fonds d’investisseurs, en 2019 OpenAI restructure son organisation. OpenAI LLC (peu ou prou l’équivalent d’une SARL) est créé pour recevoir les financements et est l’organisation principale des opérations au jour le jour. L’organisation à but non lucratif existe toujours, et a le contrôle total de l’entreprise.
  • L’entreprise possède une caractéristique assez particulière, "capped for-profit", ce qui signifie que la quantité de profits reçus par les investisseurs est plafonnée (à un certain multiple, négocié au cas par cas, de l’investissement). Tout profit supplémentaire appartient légalement à l’organisation à but non lucratif.

C’est ce dernier point qui ennuie beaucoup les dirigeants d’OpenAI et les potentiels investisseurs aujourd’hui. Fin décembre 2024, l’entreprise déclare vouloir prendre son indépendance vis-à-vis de l’organisation à but non lucratif. Sur papier, cela est possible : l’entreprise peut racheter le contrôle auprès de l’organisation à but non lucratif, à condition que le prix soit juste (sinon, c’est il s’agit tout simplement d’abus de biens sociaux). Problème : comment évaluer le juste prix ? Celui-ci est composé de deux parties :

  • Le pouvoir de contrôle sur l’entreprise en elle-même, de décider de sa politique (par exemple, en rapport à la sécurité des modèles). Bien intangible, mais qu’il faut bien valoriser.
  • Plus compliqué : le prix aujourd’hui de la totalité des profits futurs après remboursement des investisseurs.

En 2024, le bruit courait d’une offre à 40 milliards, ce qui a rapidement donné lieu à une levée de boucliers, et l’utilisation par Zvi de l’expression « greatest theft in human history » (que j’ai traduite par « casse du siècle »). En mai 2024, OpenAI annonce renoncer à cette tentative, mais reprend en septembre 2024.

Aujourd’hui, après avoir négocié avec les procureurs généraux des états du Delaware (là où l’organisation à but non lucratif est incorporée) et de Californie (pour le siège de l’entreprise), OpenAI annonce avoir reçu le feu vert pour une restructuration.

Dans les grandes lignes :

  • Le pouvoir de contrôle sur l’entreprise reste entièrement dans les mains de l’organisation à but non lucratif.
  • La structure de profits de l’entreprise disparaît (et l’entreprise elle-même, se muant en PBC) pour suivre le modèle plus courant de parts sociales. L’organisation à but non-lucratif obtient 26% de ces parts (à comparer au plus gros investisseurs, Microsoft, qui obtient 27%).

Est-ce un juste prix ? Zvi défend que non, en nous offrant ces chiffres :

  • Le journaliste d’affaires Matt Levine estime à 272 milliards le plafond de profits allant aux investisseurs.
  • Un chiffre de 1000 milliards de valuation à l’introduction en bourse est utilisé (se référant à celui rapporté par Reuters).
  • Ce qui donne 260 milliards pour l’organisation à but non lucratif dans le nouveau système. Dans l’ancien, le chiffre aurait été plus proche de 500-750 milliards.

Il faut également prendre en compte que l’objectif d’OpenAI (que ce soit l’organisation ou l’entreprise) reste d’atteindre l’intelligence artificielle générale (AGI). Dans l’hypothèse où cet objectif est atteint, les profits seraient probablement un ou plusieurs ordres de magnitude plus grands (on peut citer ce papier de l’université de Virginie), ce qui élargit encore plus le gouffre entre l’ancien système et le nouveau — dans l’ancien, la quasi totalité des profits appartiendrait au final à l’organisation à but non lucratif, dans le nouveau, 26%.

Affaire close ? Pas nécessairement : d’autres parties que les procureurs généraux peuvent se saisir de la justice pour contester cette décision. Elon Musk en particulier a déjà dans le passé saisi la justice sur ce sujet, et pourrait encore le faire dans un futur proche.

En vrac

DeepMind présente Dreamer 4, un agent capable d’apprendre à naviguer dans un environnement avec très peu de données d’entraînement, en « imaginant » des interactions synthétiques — avec pour objectif d’appliquer cette méthode à la robotique.

OpenAI publie GPDval, un benchmark cherchant à mesurer au plus près les capacités économiques de l’IA, en se concentrant sur la question de quelles tâches économiquement productives l’IA peut se charger. Sur les tâches sélectionnées (avec pour critère : bien définies, avec un périmètre clair et un contexte simple, dans divers domaines), l’IA reste pour l’instant derrière l’humain, mais plus très loin derrière : la meilleure IA, Opus 4.1, gagne 47.6% (s’acquitte mieux de la tâche) du temps contre un professionnel du domaine.

Le FLI (Future of Life Institute) publie une lettre ouverte « Statement on Superintelligence » (« Communiqué sur la superintelligence »), trois courtes phrases : « We call for a prohibition on the development of superintelligence, not lifted before there is 1. broad scientific consensus that it will be done safely and controllably, and 2. strong public buy-in. » (« Nous appelons à une interdiction du développement de la superintelligence, qui ne devra être levée qu'après : 1) un large consensus scientifique établissant que cela peut être fait de manière sûre et contrôlable, et 2) une forte adhésion du public »). Parmi les signatures, de nombreux noms de tous horizons : académie, industrie, politique et gouvernement, et même du monde religieux.

OpenAI lance son propre navigateur, Atlas (pour l’instant, uniquement disponible sous MacOS), intégrant ChatGPT à la plupart des niveaux : autocomplétion dans la barre d’adresse, fonctionnalité « ouvrir une conversation avec le site actuel », emboîtant le pas à Perplexity Comet. Il est fortement probable que les attaques de type « injection de prompt » s’appliquent également, donc prudence.

DeepSeek publie une mise à jour incrémentale de son IA, DeepSeek 3.2. Essentiellement les mêmes performances que la version précédente, mais à un coût bien plus faible.

DeepSeek publie également DeepSeek-OCR. Une bestiole difficile à décrire : contrairement à ce que ce nom indique, ce n’est pas un simple OCR (même s’il peut s’acquitter de cette tâche très honorablement), mais une piste de recherche, opérationnaliser « un bon croquis vaut mieux qu’un long discours ». Plus précisément, DeepSeek essaie avec ce système de compresser n (par exemple 10) tokens textuels en 1 token de vision (pour une compression 1:10). Les résultats semblent bons, avec 90% de précision avec une compression 1 pour 10.

Anthropic étudie la capacité d’introspection de ses modèles, et trouve un résultat positif. Par exemple, les développeurs peuvent identifier un circuit associé à un certain concept (par exemple, « piano »), l’activer, et demander au modèle « À quoi penses-tu actuellement ? » (sans que le concept soit explicitement mentionné dans le prompt) ; le modèle est généralement capable de mentionner le concept.

DeepMind, en collaboration avec l’université de Yale, publie un modèle open-weight spécialisé dans l’analyse cellulaire. Le modèle semble capable de faire des découvertes inédites.

Nouvelle confrontation sur le droit d’auteur : Disney met en demeure Character AI.

Anthropic libère sur github un outil d’évaluation dans le cadre de la sécurité des modèles, utilisé notamment pour évaluer des comportements problématiques comme la flagornerie ou la tromperie.

Epoch AI publie une visualisation quelques données économiques sur les grands acteurs du secteur.

Des chercheurs publient une nouvelle méthode pour spécialiser un LLM à un usage précis, sans avoir accès privilégié aux paramètres du modèle lui-même. Cela permet de spécialiser des modèles propriétaires.

Que se passe-t-il lorsque l’on applique une phase d’apprentissage par renforcement sur des tâches de type « créer de l’engagement sur les réseaux sociaux » ou « augmenter les ventes d’un produit » ? Un papier explore la question, et montre qu’un tel entraînement supplémentaire encourage les modèles à mentir ou répandre de la désinformation, et que l’effet ne disparaît pas en demandant au modèle de ne pas utiliser de telles méthodes dans son « prompt système ».

Autre papier d’Anthropic sur la sécurité des modèles, montrant qu’il est possible d’« empoisonner » l’entraînement des modèles (c’est-à-dire l’entraîner à donner une réponse spécifique à une entrée ésotérique) à l’aide d’un faible nombre de documents (relativement à la taille du corpus d’entraînement total).

Du mouvement sur le financement du développement de l’IA : OpenAI est évalué à $500 milliards ; xAI fait une levée de fonds pour $20 milliards ; AMD investit dans OpenAI, ainsi que Nvidia. Un article intéressant fait le parallèle avec certains montages pendant la bulle dot-com, notant également des différences importantes.

En Janvier, OpenAI annonçait que Microsoft ne serait plus leur fournisseur unique d’infrastructure, citant un manque de capacités. The Information (paywall) révèle que Microsoft craint que les demandes de capacités de OpenAI soient injustifiées et que les satisfaire conduise à terme à mettre en place des capacités qui ne seront pas utilisées.

Un nouveau benchmark, AutumnBench, assez similaire à ARC-AGI, où l’IA reste loin derrière les performances humaines.

Un billet de blog intéressant sur les efforts de lobbying de l’industrie de l’IA.

METR ajoute Sonnet 4.5 à son évaluation, qui arrive pile poil sur la ligne de tendances.

L’IA (plus précisément : GPT-5 et Gemini 2.5 Pro) obtient un score de médaille d’or sur les Olympiades Internationales d’Astronomie et d’Astrophysique.

Envie d’apprendre comment fonctionne l’IA ? Andrey Karpathy publie en open-source nanochat, pour entraîner soi-même un modèle minimal, de A à Z.

ChatGPT se dote d’un système de contrôle parental.

xAI lance une encyclopédie générée par son IA, Grok, nommée Grokipedia. Elle fait partie de la croisade d’Elon Musk contre ce qu’il considère des biais de gauche sur Wikipedia.

Un papier étudie en détails la capacité des modèles à résister au jailbreak ou plutôt leur incapacité : aucun modèle ne résiste à un attaquant humain déterminé.

Anthropic publie son modèle "léger" (moins cher, plus rapide, moins performant), Haiku 4.5.

Cursor, l’assistant de code propriétaire, développe son propre modèle, Composer.

Pour aller plus loin

Par Zvi Mowshowitz

Sur LinuxFR

Dépêches

Journaux

Forum

Liens

Commentaires : voir le flux Atom ouvrir dans le navigateur

  •  

Donald Trump promet aux travailleurs que l’IA qui les remplacera sera américaine

Après avoir réuni les géants de l’intelligence artificielle en septembre dernier, Donald Trump a souhaité revenir vendredi sur les différentes inquiétudes engendrées par le développement de l’IA. “J’ai entendu vos craintes et sachez que je ferai tout ce qui est en mon pouvoir pour que vous ne soyez jamais remplacés par Deep Blue, Mistral AI, Neuroflash ou encore Wordlift mais uniquement par ChatGPT, Midjourney ou Sora” a-t-il déclaré lors de son meeting à Mar-a-Lago. “Dans tous les cas, nous n’y sommes pas encore ! Et puis il ne faut pas oublier la devise de notre nation…la devise de notre nation qui est…qui est…” ajoute-t-il, avant de sortir son iPhone pour demander à ChatGPT de terminer sa phrase. 

Une déclaration qui a été immédiatement saluée par ses partisans. “C’est vraiment rassurant de savoir qu’on sera remplacés par une IA qu’on comprend” commente Tessa, 32 ans. Même son de cloche pour Bryan, 34 ans. “Depuis que je sais que l’IA qui me volera mon métier sera américaine, ça me donne encore plus envie de trouver du travail”. De son côté, Marleen, une Française de 27 ans, avoue ne pas se retrouver dans ce discours. “Les IA étrangères ont autant le droit que celles américaines de voler notre travail. C’est de l’artificiolophie et c’est vraiment dégueulasse” s’emporte-t-elle avant de brandir une pancarte “Touche pas à mon IA” comportant le logo d’une main à 14 doigts. 

Face à cette annonce quelque peu polémique, Donald Trump a toutefois souhaité montrer l’exemple en confiant que chacune de ses décisions politiques récentes avait été intégralement confiée à Grok depuis le 20 janvier 2025.

L’article Donald Trump promet aux travailleurs que l’IA qui les remplacera sera américaine est apparu en premier sur Le Gorafi.fr Gorafi News Network.

  •  

Vibing a Non-Trivial Ghostty Feature – Mitchell Hashimoto

Un retour relativement honnête et transparent sur le développement d'une fonctionnalité à l'aide de l'IA.

L'auteur dépeint assez bien ce qui fonctionne bien et ce qui fonctionne beaucoup moins bien, loin de la hype habituelle qui nous assume à coup de superlatifs.


Permalink
  •  

Vibing a Non-Trivial Ghostty Feature – Mitchell Hashimoto

Un retour relativement honnête et transparent sur le développement d'une fonctionnalité à l'aide de l'IA.

L'auteur dépeint assez bien ce qui fonctionne bien et ce qui fonctionne beaucoup moins bien, loin de la hype habituelle qui nous assume à coup de superlatifs.


Permalink
  •  

Meta licencie 600 postes d’IA et resserre son organisation

Meta réorganise son unité d’intelligence artificielle avec environ 600 suppressions de postes et mise sur la mobilité interne pour accélérer l’exécution.

Cet article Meta licencie 600 postes d’IA et resserre son organisation est apparu en premier sur Linformatique.org.

  •  

ChatGPT Atlas arrive sur macOS, versions Windows et mobile

ChatGPT Atlas arrive sur macOS avec un agent web supervisé et des réglages de confidentialité visibles, Windows et mobile annoncés ensuite pour étendre l’usage.

Cet article ChatGPT Atlas arrive sur macOS, versions Windows et mobile est apparu en premier sur Linformatique.org.

  •  

Pika vise la Gen Z avec une app vidéo IA simple et rapide

Pika, application vidéo IA sur iOS, convertit un court prompt et un selfie en clip prêt pour un fil social, avec une interface rapide pensée pour Gen Z.

Cet article Pika vise la Gen Z avec une app vidéo IA simple et rapide est apparu en premier sur Linformatique.org.

  •  
❌