Vue lecture

Comment OpenAI façonne son modèle économique au fil du « compute »

Une opération de communication pour lever les doutes sur le modèle modèle économique et clarifier les perspectives de croissance, c’est le sens du long billet de blog publiée par Sarah Friar, la directrice financière d’OpenAI, sous le titre  » Une entreprise qui évolue en fonction de la valeur de l’intelligence ».

Si l’inventeur de ChatGPT capte une grande partie de la lumière du business de la GenAI depuis trois ans, il cristallise aussi les inquiétudes sur les investissements faramineux et les craintes sur un déficit de ROI qui pourraient faire éclater « la bulle de l’IA » alimentée par les investissements titanesques dans les infrastructures.

Pour rassurer sur la capacité d’OpenAI à créer de la valeur, Sarah Friar révèle que les revenus annualisés ont bondi de 2 milliards $ en 2023 à plus de 20 milliards en 2025. Une multiplication par dix en deux ans ! Et de préciser que cette explosion des revenus est proportionnelle à celle de la puissance de calcul déployée à coup de centaines de milliards investis dans les infrastructures.

Le compute, moteur de la croissance

« Notre capacité à servir nos clients se mesure directement à notre puissance de calcul disponible », écrit Sarah Friar. Les chiffres parlent d’eux-mêmes : la capacité de calcul d’OpenAI est passée de 0,2 gigawatt en 2023 à 0,6 GW en 2024, pour atteindre environ 1,9 GW en 2025. Soit une multiplication par 9,5 en deux ans, avec un triplement annuel.

Cette corrélation parfaite entre infrastructure et revenus dessine le modèle économique d’OpenAI. « Il s’agit d’une croissance jamais vue à une telle échelle », affirme la directrice financière, qui ajoute que davantage de compute aurait permis une adoption et une monétisation encore plus rapides.

Partie des abonnements grand public, l’entreprise a progressivement étendu son offre aux entreprises, avant d’ajouter une tarification à l’usage pour les développeurs via son API. « Au fur et à mesure que l’IA s’intégrait dans les équipes et les workflows, nous avons créé des abonnements professionnels et ajouté une tarification basée sur l’usage, afin que les coûts évoluent avec le travail réellement effectué », explique-t-elle.

La semaine dernière, OpenAI a franchi un nouveau cap en annonçant l’introduction de publicités dans ChatGPT pour certains utilisateurs américains. Elle devrait également dévoiler son premier « produit Hardware » au second semestre 2026, comme l’a rapporté Axios en début de semaine.

Sarah Friar évoque de nouveaux modèles économiques au-delà des abonnements et des API : licences, accords basés sur la propriété intellectuelle et tarification basée sur les résultats. « À mesure que l’intelligence s’étend à la recherche scientifique, la découverte de médicaments, les systèmes énergétiques et la modélisation financière, de nouveaux modèles économiques émergeront », prédit-elle.

2026 : l’année de « l’adoption pratique »

L’année 2026 sera celle de « l’adoption pratique », annonce la directrice financière. « La priorité est de combler l’écart entre ce que l’IA rend désormais possible et la façon dont les gens, les entreprises et les pays l’utilisent au quotidien », écrit-elle.

L’opportunité se révèle particulièrement importante dans trois secteurs : la santé, les sciences et l’entreprise, où une meilleure intelligence se traduit directement par de meilleurs résultats. OpenAI mise sur une nouvelle génération d’agents intelligents et l’automatisation des workflows, capables de fonctionner en continu, de conserver le contexte dans le temps et d’agir sur différents outils.

Une stratégie d’infrastructure diversifiée

Face aux critiques sur ses dépenses massives, Sarah Friar défend une approche pragmatique. OpenAI maintient un bilan « léger » en privilégiant les partenariats plutôt que la propriété. Il y a trois ans, l’entreprise dépendait d’un seul fournisseur de compute. Aujourd’hui, elle collabore avec un écosystème diversifié de partenaires, incluant Microsoft, Oracle et d’autres acteurs.

Ce changement apporte de la certitude sur l’accès au compute. « Nous pouvons planifier, financer et déployer de la capacité avec confiance dans un marché où l’accès au compute définit qui peut passer à l’échelle », explique-t-elle.

Cette diversification permet à OpenAI de concentrer ses ressources sur l’innovation tout en conservant l’agilité nécessaire pour naviguer dans l’évolution rapide du secteur.

« L’infrastructure élargit ce que nous pouvons offrir. L’innovation étend ce que l’intelligence peut faire. L’adoption étend qui peut l’utiliser. Les revenus financent le prochain bond en avant », conclut Sarah Friar.

The post Comment OpenAI façonne son modèle économique au fil du « compute » appeared first on Silicon.fr.

  •  

Cloudflare mise gros sur Astro

Début d’années riche en acquisitions pour Cloudflare. Après l’achat de Human Native, c’est l’équipe d’Astro Technology qui rejoint ses effectifs.

L’opération, dont les termes financiers n’ont pas été divulgués, marque une nouvelle étape dans la guerre d’influence que se livrent les géants du cloud pour contrôler l’écosystème du développement web.

Astro s’est imposé comme un framework JavaScript incontournable utilisé par des marques majeures comme Unilever, Visa et NBC News, ainsi que par des centaines de milliers de développeurs à travers le monde. Sa particularité ? Chaque page web ne charge que le code strictement nécessaire à son affichage dans le navigateur, une approche qui optimise drastiquement les performances.

Dans un environnement où les moteurs de recherche privilégient les sites au chargement rapide et où les consommateurs exigent une instantanéité quasi totale, cette technologie répond à un besoin critique du marché. Les sites reposant massivement sur JavaScript pour le rendu initial peinent à offrir cette vitesse, au détriment de leur référencement et de leurs taux de conversion.

L’open source comme arme stratégique

Matthew Prince, cofondateur et PDG de Cloudflare, ne s’y trompe pas en affirmant sa philosophie : « Protéger et investir dans les outils open source est essentiel à la santé d’un Internet libre et ouvert ». Contrairement aux craintes qui entourent habituellement les rachats par les grands groupes, Astro conservera sa licence MIT et restera entièrement open source.

Cette décision n’est pas anodine. Elle s’inscrit dans une stratégie éprouvée par Cloudflare, qui a déjà démontré son soutien à des projets comme TanStack et Hono sans chercher à verrouiller ces technologies. L’entreprise s’engage même à poursuivre le financement du Astro Ecosystem Fund, aux côtés de partenaires industriels comme Webflow, Netlify, Wix et Sentry.

Une intégration déjà bien avancée

Astro constitue déjà l’architecture de plateformes comme Webflow et Wix qui fonctionnent sur Cloudflare. Cette acquisition officialise donc une collaboration de longue date. Cloudflare n’a d’ailleurs jamais caché son rôle de sponsor et défenseur du projet depuis ses débuts.

Le timing de l’opération est particulièrement stratégique. Astro 6, dont la version bêta vient d’être lancée, introduit un serveur de développement repensé alimenté par l’API Vite Environments.

Cette nouvelle mouture permet aux développeurs utilisant le plugin Vite de Cloudflare de faire tourner leur environnement local avec workerd, le runtime open source de Cloudflare Workers. Une intégration technique qui facilite considérablement l’accès aux services comme Durable Objects et D1 dès la phase de développement.

Un double pari sur l’avenir

Avec Human Native, l’acquisition d’Astro dessine les contours d’une stratégie ambitieuse : contrôler l’ensemble du cycle de vie du contenu web, de sa création à sa monétisation dans l’écosystème de l’IA générative.

Cloudflare défie frontalement Vercel et Netlify, deux acteurs qui ont massivement investi dans leurs propres écosystèmes de développeurs. La bataille ne se joue plus uniquement sur les performances d’infrastructure, mais sur la capacité à offrir une expérience développeur complète et intégrée.

Reste une question cruciale : Cloudflare saura-t-il maintenir l’agilité et l’esprit innovant qui ont fait le succès d’Astro tout en l’intégrant dans son infrastructure mondiale ? Les prochains mois nous le diront.

The post Cloudflare mise gros sur Astro appeared first on Silicon.fr.

  •  

OpenAI insère la publicité dans ChatGPT

L’annonce a mis fin à des mois de spéculations : OpenAI va tester l’insertion de publicités dans ChatGPT dès les prochaines semaines.

La nouvelle, officialisée le 16 janvier par Sam Altman, marque un virage à 180 degrés pour le patron d’OpenAI qui déclarait encore en 2024 qu’il « détestait » la publicité et trouvait l’idée de la combiner avec l’IA « particulièrement dérangeante ».

La réalité économique a eu raison des réticences… Avec 800 millions d’utilisateurs mensuels mais seulement 5% d’abonnés payants, OpenAI affiche des pertes cumulées dépassant 13,5 milliards $ au premier semestre 2025. Les projections internes tablent même sur 74 milliards de déficit opérationnel en 2028, avant un hypothétique retour à la rentabilité en 2030.

Un modèle publicitaire sous haute surveillance

Les publicités, baptisées « contenus sponsorisés », apparaîtront au bas des réponses de ChatGPT pour les utilisateurs américains de la version gratuite et de l’abonnement ChatGPT Go, récemment lancé à 8 dollars par mois. OpenAI promet que ces annonces seront clairement identifiées et séparées des réponses principales, sans jamais influencer le contenu généré par l’intelligence artificielle.

« Les réponses de ChatGPT ne seront jamais influencées par la publicité », a martelé Fidji Simo, directrice des applications chez OpenAI, dans un communiqué. L’ancienne dirigeante de Meta et d’Instacart, recrutée pour piloter cette stratégie de monétisation, insiste sur la protection de la confidentialité : aucune donnée utilisateur ne sera vendue aux annonceurs, et les mineurs ne verront aucune publicité.

OpenAI a également défini des zones d’exclusion strictes. Les annonces ne s’afficheront pas sur des sujets sensibles comme la santé, la santé mentale ou la politique. Les utilisateurs pourront désactiver la personnalisation publicitaire, supprimer leurs données de ciblage et masquer les annonces avec un système de feedback.

Le pari risqué de la publicité conversationnelle

Ce basculement vers la publicité place OpenAI en concurrence frontale avec Google et Meta sur un nouveau terrain : celui de la publicité native dans l’IA.

Google vient d’autoriser l’insertion d’offres sponsorisées dans son AI Mode, tandis que Meta utilise désormais les interactions avec son chatbot pour affiner le ciblage publicitaire.

Selon les projections d’eMarketer, le marché américain de la publicité pilotée par l’IA devrait bondir de 1,1 milliard $ en 2025 à 26 milliards en 2029. Pour OpenAI, l’enjeu est considérable : les documents internes évoquent 1 milliard $de revenus publicitaires dès 2026, pour atteindre 29 milliards en 2029, soit 20% du chiffre d’affaires total.

Reste que le modèle de la publicité conversationnelle n’a rien d’évident. Perplexity, concurrent d’OpenAI, a dû récemment suspendre l’accueil de nouveaux annonceurs après des difficultés d’intégration. Les utilisateurs, habitués à une expérience sans publicité, pourraient manifester leur mécontentement si la qualité des réponses venait à se dégrader.

Des révélations de The Information en décembre ont d’ailleurs semé le trouble : des employés auraient évoqué en interne la possibilité de donner un « traitement préférentiel » aux contenus sponsorisés dans les réponses du chatbot. Une pratique qu’OpenAI s’est empressée de démentir, mais qui illustre la zone grise entre recommandation et promotion commerciale.

Un équilibre fragile entre croissance et confiance

L’introduction de la publicité soulève aussi des questions éthiques et réglementaires. En Europe, le RGPD et la directive sur les services numériques (DSA) imposent une transparence stricte en matière publicitaire. La frontière entre conseil personnalisé et manipulation commerciale pourrait rapidement devenir un terrain miné, surtout dans un outil utilisé pour des conversations parfois intimes.

Les abonnés premium (Plus à 20 dollars, Pro à 200 dollars, ainsi que les offres Team et Enterprise) resteront à l’abri de la publicité. Une stratégie classique de différenciation qui pourrait inciter les utilisateurs gratuits à basculer vers un abonnement payant pour retrouver une expérience originelle.

Illustration : © OpenAI

The post OpenAI insère la publicité dans ChatGPT appeared first on Silicon.fr.

  •  

Pénurie de mémoire vive : le GPU le plus abordable de Nvidia pour le 4K en péril

Le marché des cartes graphiques fait face à une crise sans précédent début 2026. Les constructeurs rencontrent des difficultés croissantes pour maintenir la production de modèles équipés de 16 Go de VRAM. La pénurie mondiale de mémoire, exacerbée par la demande des centres de données d’intelligence artificielle, frappe désormais les joueurs PC. Alors que les ... Lire plus

L'article Pénurie de mémoire vive : le GPU le plus abordable de Nvidia pour le 4K en péril est apparu en premier sur Fredzone.
  •  

News Corp intègre l’intelligence artificielle dans ses rédactions via un partenariat stratégique

L’empire médiatique de Rupert Murdoch vient de conclure un accord majeur avec Symbolic.ai, startup relativement discrète jusqu’alors. Ce rapprochement marque une évolution significative dans l’adoption de l’IA par les groupes de presse, passant du stade expérimental à une intégration opérationnelle concrète. News Corp déploiera la plateforme technologique de Symbolic au sein de Dow Jones Newswires, ... Lire plus

L'article News Corp intègre l’intelligence artificielle dans ses rédactions via un partenariat stratégique est apparu en premier sur Fredzone.
  •  

Cloudflare rachète Human Native, une marketplace de données IA

Cloudflare rachète  Human Native, une place de marché de données pour l’IA, pour structurer un nouveau modèle économique entre créateurs de contenus et développeurs de modèles génératifs.

Avec cette opération, dont le montant n’est pas communiqué, Cloudflare entend se positionner au cœur des flux de données qui alimentent l’IA tout en répondant aux tensions croissantes autour de la rémunération et du contrôle des contenus en ligne.

Cloudflare présente Human Native comme une marketplace destinée à connecter créateurs, éditeurs et développeurs d’IA autour de données « prêtes à l’emploi » pour l’entraînement et l’inférence. L’objectif affiché est de rendre plus simple et plus rapide la découverte, l’achat et l’accès à des contenus fiables, tout en offrant aux ayants droit des mécanismes transparents de prix et de rémunération.

Fondée en 2024, Human Native revendique une mission centrée sur une relation plus équitable et transparente entre créateurs de contenu et entreprises d’IA. La start-up s’appuie sur une équipe issue d’acteurs comme DeepMind, Google, Figma ou Bloomberg, avec une forte culture croisée tech–médias.

De la « Napster era » de l’IA à un modèle régulé

Pour James Smith, cofondateur et CEO de Human Native, l’ambition est de « sortir l’IA générative de son ère Napster », en garantissant contrôle, compensation et crédit aux créateurs lorsque leurs œuvres servent à entraîner des systèmes d’IA. Ce discours s’inscrit dans un climat de conflit croissant entre éditeurs, plateformes et fournisseurs de modèles, accusés de s’appuyer sur du scraping massif sans cadre contractuel clair.

Cloudflare avait lancé des outils permettant aux éditeurs de mieux contrôler quels robots peuvent accéder à leurs contenus et de signaler leurs préférences d’utilisation via des mécanismes comme Content Signals.

L’acquisition de Human Native apparaît comme l’étape suivante : passer de la simple gestion d’accès au contenu à une monétisation structurée à l’échelle Internet.

La stratégie de Cloudflare dans l’IA

Historiquement positionné sur la performance web, la sécurité et le « connectivity cloud », Cloudflare se rapproche de plus en plus des couches applicatives liées à l’IA. En s’emparant d’une marketplace de données, l’entreprise se place en intermédiaire critique entre les détenteurs de contenu et les équipes IA, un rôle potentiellement aussi stratégique que celui de fournisseur d’infrastructure.

Pour les créateurs et les éditeurs, l’intérêt de Human Native réside dans la promesse de conserver le contrôle sur les usages tout en ouvrant un canal de revenus dédié à l’IA. La marketplace doit leur permettre de décider si leurs contenus sont accessibles, dans quelles conditions, et à quel prix, en remplaçant une logique de scraping par une logique de licence.

Pour les développeurs d’IA, l’enjeu est l’accès à des corpus fiables, traçables et juridiquement sécurisés, dans un contexte où le risque de litiges sur les données d’entraînement augmente. En centralisant découverte, négociation et flux de paiement, Cloudflare espère réduire la friction d’accès aux données tout en répondant aux attentes des régulateurs et des ayants droit.

Intégration aux outils de contrôle d’accès

Cloudflare prévoit d’intégrer progressivement les technologies et produits de Human Native à ses offres existantes. Cette fusion s’appuie sur des solutions comme AI Crawl Control, Pay Per Crawl et l’AI Index, afin de transformer des contenus non structurés en données prêtes pour l’entraînement et l’inférence des modèles IA.

Human Native complétera les mécanismes de Cloudflare permettant aux éditeurs de décider qui accède à leurs contenus via des bots IA. Les technologies de la startup transformeront les données multimédias en formats indexables et licenciables, intégrés à Pay Per Crawl pour des paiements automatisés lors de l’accès.

Cloudflare accélérera son AI Index, un système Pub/Sub où les sites publient des mises à jour structurées en temps réel, évitant les crawls coûteux et risqués. Human Native fournira les outils pour structurer et valoriser ces flux, rendant les données traçables et monétisables pour les développeurs IA.

L’acquisition soutiendra le protocole x402 et la x402 Foundation (avec Coinbase), pour des transactions machine-to-machine fluides. Les créateurs fixeront prix et conditions d’usage, intégrés aux services Cloudflare comme Workers et AI Gateway, créant un marché unifié de données IA.

The post Cloudflare rachète Human Native, une marketplace de données IA appeared first on Silicon.fr.

  •  

OpenAI : sa transformation contestée par Elon Musk ira en justice

Le bras de fer juridique entre Elon Musk et OpenAI vient de prendre un tour décisif. Ce 15 janvier, une juge fédérale d’Oakland a rejeté les demandes de rejet formulées par OpenAI et Microsoft, ouvrant la voie à un procès devant jury prévu fin avril.

Au cœur du litige : l’accusation selon laquelle l’inventeur de ChatGPT aurait trahi sa mission originelle en tant qu’organisation caritative.

Les origines du conflit

Elon Musk, qui a contribué au lancement d’OpenAI aux côtés de Sam Altman en 2015, lui reproche d’avoir abandonné son statut d’organisation à but non lucratif après avoir reçu des milliards de dollars de Microsoft. Et conteste la transformation d’OpenAI en société commerciale.

Dans sa décision, la juge Yvonne Gonzalez Rogers a refusé d’écarter l’accusation selon laquelle OpenAI aurait violé sa promesse de fonctionner comme une fondation caritative. Selon Elon Musk, ses contributions de 38 millions $  avaient un objectif caritatif spécifique, assorti de deux conditions fondamentales : qu’OpenAI reste open source et demeure une organisation à but non lucratif.

Des communications internes compromettantes

Selon Bloomberg, la magistrate s’est appuyée sur des échanges internes datant de 2017 pour maintenir les accusations de fraude. En septembre de cette année-là, Shivon Zilis, membre du conseil d’administration, avait indiqué à Elon Musk que Greg Brockman, cofondateur d’OpenAI, souhaitait poursuivre avec la structure à but non lucratif.

Deux mois plus tard, dans une note privée, Brockman écrivait pourtant : « Je ne peux pas dire que nous sommes engagés envers l’organisation à but non lucratif. Je ne veux pas dire que nous sommes engagés. Si dans trois mois nous passons en b-corp, ce sera un mensonge. »

Pour Marc Toberoff, l’avocat de Elon Musk, cette décision confirme « qu’il existe des preuves substantielles que les dirigeants d’OpenAI ont fait sciemment de fausses assurances à M. Musk concernant sa mission caritative, qu’ils n’ont jamais honorée au profit de leur enrichissement personnel. »

Microsoft également visée

La juge a estimé qu’il appartiendra au jury de déterminer si Microsoft a aidé OpenAI à manquer à ses responsabilités envers ses donateurs. Elle a relevé que Elon Musk avait identifié « des preuves considérables soulevant une question de fait contestable selon laquelle Microsoft avait une connaissance réelle allant au-delà d’un vague soupçon d’actes répréhensibles.»

En revanche, la juge  a rejeté l’allégation selon laquelle Microsoft se serait enrichie « injustement » aux dépens de Musk, faute de relation contractuelle entre les deux parties.

OpenAI maintient sa position

De son côté, OpenAI dénonce une procédure sans fondement. « La plainte de M. Musk continue d’être sans fondement et fait partie de son modèle continu de harcèlement », a déclaré l’entreprise dans un communiqué «.Nous avons hâte de le démontrer lors du procès. »

Dans le cadre de sa restructuration intervenue en octobre 2025, Microsoft a reçu une participation de 27% dans le cadre d’une transition qui maintient l’organisme à but non lucratif d’OpenAI en contrôle de ses opérations commerciales.

The post OpenAI : sa transformation contestée par Elon Musk ira en justice appeared first on Silicon.fr.

  •  

IA générative : Wikipedia fait enfin passer les chatbots à la caisse

L’ère de la gratuité totale semble révolue pour les leaders de l’IA. Après les accords passés avec certains groupes de médias (d’autres ont engagé des procédures judiciaires), c’est au tour de la plus grande encyclopédie collaborative de monétiser ses millions d’articles.

A l’occasion de ses 25 ans, Wikipedia vient en effet de signer, via sa maison mère la Wikimedia Foundation, des accords commerciaux avec Microsoft, Meta et Amazon, rejoignant ainsi Google, déjà signataire d’un accord depuis 2022.

Des acteurs de l’IA comme Perplexity et le français Mistral AI ont également été enrôlés dans ce dispositif qui redéfinit les règles du jeu entre communs numériques et industrie de l’intelligence artificielle.

Le montant des accords n’est pas communiqué.

Une manne de données devenue indispensable

Les chiffres parlent d’eux-mêmes : 65 millions d’articles répartis dans plus de 300 langues. Wikipedia s’est imposée comme la colonne vertébrale de l’entraînement des modèles d’IA générative. Chaque chatbot, chaque assistant virtuel développé par les mastodontes technologiques puise abondamment dans ce gigantesque corpus de connaissances structurées et vérifiées.

Mais cette exploitation massive a un coût. Le scraping intensif des contenus par les systèmes d’IA a fait exploser la demande sur les serveurs de la fondation, provoquant une hausse vertigineuse des dépenses d’infrastructure.  « Wikipedia est un composant critique du travail de ces entreprises technologiques, elles doivent trouver comment le soutenir financièrement », martèle Lane Becker, président de Wikimedia Enterprise, la branche commerciale de la fondation.

Un modèle économique en pleine mutation

Face à cette situation, Wikimedia a créé une offre sur mesure : Wikimedia Enterprise. Cette plateforme commerciale propose un accès structuré et haut débit aux données de l’encyclopédie via des API payantes, avec des garanties de disponibilité pouvant atteindre 99% et des mises à jour en temps quasi réel.

Wikipedia reste gratuite pour le grand public et les usages non commerciaux, mais les exploitations industrielles doivent contribuer. Un principe que Tim Frank, vice-président de Microsoft, semble avoir intégré : « Nous aidons à créer un écosystème de contenu durable pour l’internet de l’IA, où les contributeurs sont valorisés.»

Les revenus générés restent pour l’instant modestes. En 2023, le contrat avec Google avait rapporté environ 3,2 millions $ de revenus annuels récurrents, soit 1,7% des 185,3 millions de revenus totaux de la fondation. Mais la multiplication des partenaires laisse augurer une montée en puissance significative.

Cette stratégie pourrait bien inspirer d’autres plateformes de connaissances ouvertes confrontées aux mêmes défis. La fondation franchit par ailleurs un nouveau cap avec la nomination de Bernadette Meehan, ancienne ambassadrice des États-Unis au Chili, au poste de directrice générale à compter du 20 janvier. Un profil diplomatique pour naviguer dans ces eaux nouvelles.

Illustration : © DR

The post IA générative : Wikipedia fait enfin passer les chatbots à la caisse appeared first on Silicon.fr.

  •  

ChatGPT Translate - OpenAI veut détrôner Google Traduction

Bon, vous connaissez tous Google Traduction, cette application qu'on installe par réflexe dès qu'on pose le pied dans un pays étranger (ou quand on essaie de comprendre une notice de montage suédoise).

Hé bien, il semblerait qu'OpenAI ait décidé de venir sérieusement grattouiller dans les plates-bandes de Google avec le lancement de ChatGPT Translate , un outil de traduction dédié qui ne fait pas les choses à moitié.

On va pas se mentir, la traduction automatique, c'est souvent la foire aux saucisses dès qu'on sort des sentiers battus... On a tous en tête ces traductions pourries qui transforment un compliment en insulte diplomatique. C'est d'ailleurs pour ça que certains utilisent des extensions comme YouTube Anti-Translate pour éviter les massacres linguistiques sur nos vidéos préférées.

Mais là, ChatGPT Translate essaie d'apporter un truc en plus qui est : ✨ la personnalisation ✨, lol. Grâce à ça, au-delà de simplement convertir des mots, l'outil vous propose, d'un simple clic, de reformuler le résultat.

Vous voulez que ça sonne plus "business-formal" ? Hop, c'est fait. Vous préférez un ton simplifié pour expliquer un truc à un gamin de 5 ans ? Nickel, l'IA s'adapte. C'est ce côté "malléable" qui manque cruellement aux solutions classiques... Par exemple, moi dans Deepl, j'ai pas ça... Et comme c'est difficile de jauger si un texte dans une langue étrangère est trop familier ou pas, çe me bloque un peu, c'est vrai.

L'interface minimaliste de ChatGPT Translate qui mise tout sur la personnalisation ( Source )

Pour le moment, l'interface est ultra minimaliste (deux champs de texte, paf, on ne se prend pas la tête) et supporte plus de 50 langues. On peut taper son texte, causer dans le micro, et même si l'option d'upload d'images est mentionnée, elle semble encore un peu timide sur desktop. On est donc encore très loin des usines à gaz comme Comic Translate qui traduisent carrément vos mangas en temps réel avec de l'IA, mais c'est un bon début.

Et voilà comment OpenAI mise une fois encore tout sur son "muscle" cloud magique pour offrir des traductions qui ne ressemblent pas à des phrases sorties d'un vieux dictionnaire poussiéreux. C'est un peu le même combat qu'on a vu à l'époque avec le traducteur de Microsoft quand tout le monde essayait de détrôner le roi Google. Après c'est bien pour nous, ça nous fait des trucs nouveaux à tester et peut-être que ça nous plaira.

En tout cas, si vous voulez tester ça, c'est déjà dispo sur le web et ça devrait s'intégrer de plus en plus dans nos smartphones à l'avenir, j'imagine...

Mais gardez quand même un œil sur le résultat au cas où l'IA déciderait de traduire un "Cordialement," de fin de mail par "Die motherfucker,"... On n'est jamais trop prudent !

Source

  •  

VMware assigné en référé par la Cnam

Face à VMware, la Cnam (Caisse nationale d’assurance maladie) a fini par saisir la justice.

Il y a quelques semaines, l’établissement public est allé en référé. Objectif : obtenir un délai pour convertir des jetons HPP (Hybrid Purchasing Program)* en licences perpétuelles.

Ces jetons avaient été acquis à l’été 2021, sur le fondement d’un accord-cadre conclu entre le GIP RESAH (Réseau des acheteurs hospitaliers) et Computacenter. Son objet : la fourniture de logiciels, dont ceux de VMware.

Le 22 avril 2024, Broadcom avait informé la Cnam que la conversion des jetons HPP ne serait plus possible après le 30 avril 2024.

Le 26 septembre 2025, la Cnam avait mis Computacenter et Broadcom en demeure de rétablir cette possibilité jusqu’au 20 décembre 2025. Elle avait essuyé un refus, au motif que le modèle de souscription alors en vigueur ne le permettait pas.

La Cnam a invoqué sa mission de service public

Le 2 décembre, la Cnam avait sollicité le juge des référés pour obtenir ce rétablissement, sous astreinte de 50 000 € par jour. Fondement invoqué : l’article L. 521-3 du Code de justice administrative. Lequel dit, en substance, que le juge des référés peut, en cas d’urgence, ordonner toute mesure utile, même en l’absence d’une décision administrative préalable.

D’après la Cnam, la condition d’urgence était remplie dès lors que :

  • ces jetons devaient être convertis avant le 20 décembre 2025 ;
  • à défaut, elle perdrait son droit contractuel à la conversion ;
  • l’acquisition de licences perpétuelles revêtait une importance particulière pour assurer sa mission de service public, l’ensemble de son SI reposant sur les technos Vmware.

La Cnam prétendait ne pas disposer des moyens suffisants pour contraindre Broadcom… et considérait par là même que la mesure demandée était utile.

Broadcom a fini par accéder à la demande. Et le 23 décembre, la Cnam s’est désistée de sa requête.

* Le programme HPP se destinait aux clients souhaitant migrer vers le cloud tout en conservant leur infrastructure privée. Il combinait l’EPP (Enterprise Purchasing Program) et le SPP (Subscription Program) en un modèle transactionnel. Chaque euro dépensé pouvait, dans certaines limites, être réparti entre, d’un côté, licences perpétuelles + services/support, et de l’autre, services sur abonnements.

Illustration générée par IA

The post VMware assigné en référé par la Cnam appeared first on Silicon.fr.

  •  

RGPD : la Cnil inflige une amende de 42 millions € à Free et Free Mobile

L’autorité de régulation frappe fort en ce début d’année. Suite à une intrusion massive survenue en octobre 2024 dans les systèmes d’information du groupe Iliad, la Commission nationale de l’informatique et des libertés (CNIL) inflige une amende d’un montant total de 42 millions € aux opérateurs Free Mobile (27 millions € ) et Free (15 millions €).
Retour sur les faits. En octobre 2024, un attaquant s’infiltre dans le système d’information des deux sociétés compromettant les données personnelles de 24 millions de contrats d’abonnés. Les données exposées incluaient notamment des IBAN pour les clients disposant d’abonnements auprès des deux entités simultanément.

L’ampleur de l’incident suscite plus de 2 500 plaintes d’abonnés et déclenche un contrôle approfondi de la CNIL qui identifie plusieurs manquements graves au Règlement général sur la protection des données (RGPD), chaque société étant tenue responsable du traitement des données de ses propres clients.

Des failles de sécurité élémentaires

La formation restreinte de la CNIL, organe compétent pour prononcer les sanctions, constate aussi l’absence de mesures de sécurité fondamentales qui auraient pu compliquer l’attaque. Les enquêteurs relèvent notamment que la procédure d’authentification pour accéder aux réseaux privés virtuels (VPN) des deux sociétés, utilisés pour le télétravail des employés, présentait des faiblesses importantes en termes de robustesse.

Par ailleurs, les dispositifs de détection des comportements anormaux sur les systèmes d’information se sont révélés inefficaces. La CNIL a jugé que ces mesures n’étaient pas adaptées au volume et à la sensibilité des données traitées par les deux opérateurs.

La commission reconnait cependant qu’ils ont renforcé leur niveau de sécurité en cours de procédure et leur impose d’achever la mise en œuvre de ces nouvelles mesures sous trois mois.

Une communication insuffisante auprès des victimes

Le régulateur pointe également du doigt les lacunes dans la communication auprès des clients. Si Free et Free Mobile ont déployé un dispositif d’information à deux niveaux (courriel initial puis numéro vert et service dédié), le courriel envoyé aux abonnés ne contenait pas toutes les informations obligatoires prévues par l’article 34 du RGPD.

Selon la CNIL, ces omissions empêchaient les victimes de comprendre directement les conséquences de la violation et les mesures de protection qu’elles pouvaient adopter pour limiter les risques.

Free Mobile épinglée pour conservation excessive de données

Un troisième manquement est retenu spécifiquement contre Free Mobile concernant la durée de conservation des données. Au moment du contrôle, l’opérateur n’avait pas mis en place de procédures permettant de trier et supprimer les données des anciens abonnés une fois leur conservation devenue inutile.

La CNIL a établi que Free Mobile conservait des millions de données d’abonnés sans justification pendant des durées excessives, en violation de l’article 5 du RGPD. L’opérateur a depuis initié un tri pour ne conserver que les données nécessaires au respect des obligations comptables pendant dix ans, et a supprimé une partie des données conservées de manière excessive. La société dispose de six mois pour finaliser cette opération de purge.

Image : © Cnil 

The post RGPD : la Cnil inflige une amende de 42 millions € à Free et Free Mobile appeared first on Silicon.fr.

  •  

Mercedes met le holà sur le Niveau 3 - Adieu la sieste au volant !

Semaine de merde hein ? On nous promettait le futur, les mains dans les poches et le regard dans le vide, et là, patatras ! Mercedes vient de décider de mettre un gros coup de frein sur son fameux "Drive Pilot" de niveau 3.

Pour ceux qui ne suivent pas tout ce bazar autour de la conduite autonome, sachez que le Niveau 3 (ou "conduite automatisée conditionnelle" pour les intimes), c’était la promesse de pouvoir lâcher le volant et SURTOUT de ne plus regarder la route quand on est coincé dans les bouchons sur l’autoroute. En Allemagne, Mercedes avait même réussi à faire homologuer le machin jusqu'à 95 km/h, ce qui en faisait le système certifié le plus rapide du monde.

C'est vrai que contrairement au Niveau 2 où vous deviez rester au taquet, le Niveau 3 permet théoriquement de détourner les yeux de la route, même si vous deviez quand même rester capable de reprendre les commandes en quelques secondes si la voiture panique.

Moi qui me voyais déjà en train de déplier mon journal papier (oui, je sais, je suis vintage), de faire une petite partie de Uno avec mon passager imaginaire ou même de me lancer dans une session intensive de blogging sur le grand écran du tableau de bord... Et bien c’est râpé. On va devoir continuer à fixer le pare-choc de la Renault Clio de devant comme des demeurés.

Officiellement, Mercedes nous explique que la demande est "modérée" et que les coûts de développement sont très couteux... en gros, ça coûte un bras à concevoir et personne n'a envie de payer le prix d'un petit appartement pour avoir le droit de lire ses mails en roulant à 60 km/h. La nouvelle Classe S, qui devait être le fer de lance de ce machin, sortira donc fin janvier sans cette option. Pffff.

Et ne me parlez pas de Tesla ! Parce que là, on touche le fond. C'est quand même un constructeur qui promet du niveau 5 (le truc où la bagnole vient vous chercher toute seule pendant que vous dormez) depuis littéralement dix ans pour au final propose un système "Full Self-Driving" toujours à la ramasse et nécessitant que vous gardiez les mains sur le volant sous peine de finir dans un mur. Clairement, Tesla c'est déjà pas ouf au niveau des finitions mais alors quand on commence à parler des promesses non tenues d’Elon, y'a de quoi finir en PLS.

Mais bon, ne désespérez pas totalement car si vous avez une bagnole récente (genre une Ioniq 5 ou une EV6), vous avez déjà accès à un Niveau 2 qui tient la route et qui vous soulage bien sur les longs trajets. Et pour ceux qui traînent encore de vieilles casseroles sans cerveau électronique, il existe une solution qui s'appelle OpenPilot avec le hardware de chez Comma.ai .

Si la législation dans votre pays l'autorise, vous installez ce petit bazar sur votre pare-brise, vous le branchez sur le bus CAN de votre voiture, et hop, vous avez un système de conduite autonome qui envoie bien plus du bois que la plupart des options constructeurs hors de prix. George Hotz (le génie derrière le hack de l'iPhone et de la PS3) a vraiment créé un truc ouvert, communautaire, et qui fonctionne vraiment bien sur des centaines de modèles...

Bref, le futur où on pourra se faire une raclette au volant n'est pas encore gagné, mais on s'en rapproche doucement par les chemins de traverse du logiciel libre.

En attendant, gardez quand même un œil sur la route et les mains sur le volant, ça évitera de froisser de la tôle pour une notification TikTok de travers. Et comme d'hab, mon meilleur conseil en termes de sécurité routière c'est méfiez-vous des semeurs de mort qui roulent en Volkswagen ^^ !

Source

  •  

Souveraineté numérique de l’UE : état des lieux et enjeux stratégiques

Avec 83 % des dépenses IT des grandes entreprises captées par des fournisseurs étrangers et une part de marché européenne marginale sur la plupart des segments critiques (OS, cloud, IA générative), l’UE fait face à des risques majeurs de souveraineté et de sécurité.

Ce dossier décrypte les données chiffrées de cette dépendance, analyse la matrice des risques économiques et géopolitiques associés, et illustre concrètement ces enjeux à travers le cas du secteur de l’énergie, où la cybersécurité repose massivement sur des solutions non européennes.

> Dépendances numériques de l’UE : une matrice des risques
L’étude commandée par le Parlement européen propose une matrice d’évaluation du « risque de souveraineté », sur trois axes (contrôle juridique, autonomie technique, indépendance stratégique) comportant chacun trois dimensions

> Les dépendances numériques de l’UE chiffrées, GenAI comprise
Les grandes entreprises européennes orientent près 83 % de leurs budgets IT vers des acteurs américains.

> Dépendances numériques : l’exemple de la cyber dans le secteur de l’énergie
La dépendance de l’UE à des logiciels étrangers trouve une illustration avec les solutions cyber déployées dans le secteur de l’énergie.

The post Souveraineté numérique de l’UE : état des lieux et enjeux stratégiques appeared first on Silicon.fr.

  •  

Apple lance Creator Studio : FCP, Logic et Pixelmator dans un abonnement unique (et ça vaut le coup ?)

Vous le savez, Apple et les abonnements, c'est une grande histoire d'amour. Après Apple Music, Apple TV+, Apple Arcade et Apple One, la firme de Cupertino vient de dégainer une nouvelle offre qui risque de faire du bruit dans le petit monde des créatifs : Apple Creator Studio .

Si vous en avez marre de payer vos licences logicielles au prix fort (ou si au contraire, vous détestez le modèle par abonnement), asseyez-vous, on va regarder ça de près.

La nouvelle suite Apple Creator Studio ( Source )

Concrètement, Apple Creator Studio, c'est un bundle "tout-en-un" qui regroupe la crème de la crème des logiciels pro de la Pomme.

Ainsi, pour 12,99 € par mois (ou 129 € par an), vous accédez à :

  • Final Cut Pro (Mac et iPad)
  • Logic Pro (Mac et iPad)
  • Pixelmator Pro (Mac et... iPad ! Oui, j'y reviens)
  • Motion et Compressor
  • MainStage

Et pour faire bonne mesure, ils ajoutent des fonctionnalités "premium" et de l'IA dans Keynote, Pages et Numbers.

Alors, première réaction à chaud : le prix est agressif. Très agressif.

Si on fait le calcul, acheter Final Cut Pro (299 €), Logic Pro (199 €) et Pixelmator Pro (49 €) en version perpétuelle, ça coûte une petite fortune. Là, pour le prix d'un abonnement Netflix, vous avez toute la suite. Pour les étudiants, c'est même indécent : 2,99 € par mois. Adobe doit commencer à suer à grosses gouttes avec son Creative Cloud à plus de 60 balles... loool.

Mais ce n'est pas juste un repackaging car Apple en profite pour lancer Pixelmator Pro sur iPad. C'était l'un des chaînons manquants et l'app a été optimisée pour le tactile et l'Apple Pencil, et intègre des outils d'IA comme la Super Résolution (un peu comme ce que propose Upscayl , un outil libre que j'adore).

Pixelmator Pro débarque enfin sur iPad ( Source )

Côté vidéo, Final Cut Pro gagne des fonctionnalités "intelligentes" (comprenez : bourrées d'IA). On note l'arrivée du Montage Maker sur iPad, qui monte vos rushs tout seul en se basant sur les "meilleurs moments" (mouais, à tester), et surtout une fonction Beat Detection qui cale automatiquement vos cuts sur le rythme de la musique. Ça, pour les monteurs qui font du clip ou du vlog dynamique, c'est un gain de temps monstrueux. C'est d'ailleurs le genre d'optimisation dont je parlais dans mon article sur mon process de tournage .

L'interface de Final Cut Pro avec les nouvelles fonctions IA ( Source )

Bon, tout ça c'est bien beau, mais il y a un "mais".

Le modèle par abonnement, c'est aussi la perte de la propriété car auand vous achetez une licence à vie, le logiciel est à vous (enfin, façon de parler, mais vous voyez l'idée). Là, si vous arrêtez de payer, vous perdez vos outils. Et quand on voit comment Apple peut parfois verrouiller des comptes sans préavis , mettre tous ses œufs créatifs dans le même panier iCloud, ça peut faire peur.

C'est donc encore une fois un gros changement... Même si Apple garde (pour l'instant) l'option d'achat unique pour les versions Mac. Mais pour combien de temps ?

Et surtout, les nouvelles fonctionnalités IA semblent être malheureusement réservées à ce modèle "Studio".

Bref, si vous démarrez dans la création ou si vous êtes étudiant, c'est une aubaine incroyable. Après pour les vieux briscards qui aiment posséder leurs outils, c'est peut-être le début de la fin d'une époque. Perso, je suis partagé entre l'excitation d'avoir Pixelmator sur mon iPad et la tristesse de voir encore un abonnement à la con s'ajouter à la pile.

À vous de voir si le jeu en vaut la chandelle.

Disponibilité prévue le 28 janvier !

Source

  •  

Yann LeCun quitte Meta : les coulisses d’une rupture

C’est au restaurant étoilé Pavyllon, à deux pas du Grand Palais parisien, que Yann LeCun s’est confié au Financial Times dans le cadre de sa série « Lunch with the FT ».

Attablé pour un déjeuner de trois heures et demie, le chercheur français de 64 ans a expliqué sans détour pourquoi il a décidé de quitter Meta après onze ans de bons et loyaux services. « Rester est devenu politiquement difficile », confie-t-il. Une litote pour décrire une rupture qui révèle les tensions croissantes au sein du groupe californien sur la direction à prendre en matière d’IA.

LLM : un modèle en fin de course

Au cœur du conflit : une divergence fondamentale sur l’avenir technologique de l’intelligence artificielle. LeCun, prix Turing et figure tutélaire du deep learning, ne croit pas aux grands modèles de langage comme voie vers la superintelligence. Pour lui, les LLM sont utiles mais limités, contraints par le langage seul. Une conviction qui détonne dans une Silicon Valley obsédée par cette approche.

Le problème ? Meta vient justement de miser massivement sur cette technologie. Après le lancement de ChatGPT fin 2022, l’entreprise a réorganisé ses équipes autour de Llama, son propre modèle de langage.

Le tournant s’opère véritablement en 2025. Mark Zuckerberg, déçu par les performances de Llama 4, décide de frapper fort. Il investit 15 milliards $ dans Scale AI et embauche son patron, Alexandr Wang, 28 ans, pour diriger le nouveau laboratoire de recherche TBD Lab. Une décision qui place ce jeune entrepreneur à la tête de l’unité de recherche en IA de Meta. Ses nouvelles recrues, attirées à coups de primes pouvant atteindre 100 millions $, sont selon LeCun « complètement convaincues par les LLM ».

LeCun se retrouve ainsi managé par quelqu’un qu’il qualifie de « jeune » et « inexpérimenté ». S’il reconnaît que Alexandr Wang apprend vite, il souligne son manque d’expérience en matière de recherche fondamentale. « On ne dit pas à un chercheur ce qu’il doit faire. On ne dit certainement pas à un chercheur comme moi ce qu’il doit faire », lance-t-il.

La communication se dégrade également avec l’unité IA générative. LeCun regrette que ses équipes proposent des innovations ambitieuses quand la direction ne retient que des projets éprouvés et sans risque. Une prudence qui, selon lui, conduit l’entreprise à prendre du retard.

Une organisation bouleversée

Plus profondément, LeCun refuse de renier ses convictions scientifiques. Certains chez Meta aimeraient qu’il cesse de proclamer publiquement que les LLM constituent une impasse pour atteindre la superintelligence. Mais le chercheur ne transige pas : « Je ne vais pas changer d’avis parce qu’un type pense que j’ai tort. Je n’ai pas tort. Mon intégrité de scientifique ne me le permet pas. »

Cette inflexibilité s’explique aussi par sa vision alternative : les modèles du monde, ou world models, qu’il développe depuis des années. Cette architecture baptisée V-JEPA vise à donner aux machines une compréhension du monde physique en apprenant à partir de vidéos, et non uniquement du langage. Une approche qui intéresse davantage l’industrie lourde et l’aéronautique que les réseaux sociaux.

Cap vers AMI Labs

LeCun prépare désormais son prochain chapitre : Advanced Machine Intelligence Labs, une start-up qui incarnera sa vision de l’intelligence artificielle avancée. Il y occupera le poste de président exécutif, laissant la direction opérationnelle à Alex LeBrun, cofondateur de la startup française Nabla. Une structure qui lui permettra de conserver la liberté de recherche qu’il chérissait chez Meta. Pourquoi ne doit pas prendre le rôle de CEO ?  « Je suis à la fois trop désorganisé et trop vieux ! » confie Yann LeCun.

Le chercheur promet des premières versions de sa technologie dans les douze mois. Pas encore la superintelligence, mais un chemin vers celle-ci. Emmanuel Macron lui-même aurait manifesté sa satisfaction de voir cette nouvelle entreprise mondiale maintenir des liens étroits avec la France.

Après des décennies passées à façonner l’IA moderne, Yann LeCun entame donc un nouveau cycle. Son ambition ? Augmenter la quantité d’intelligence dans le monde. « L’intelligence, c’est vraiment ce dont nous devrions avoir davantage », affirme-t-il.

Photo : © DR

The post Yann LeCun quitte Meta : les coulisses d’une rupture appeared first on Silicon.fr.

  •  

Apple et Google scellent une alliance stratégique majeure dans l’IA

C’est la fin du suspense sur la stratégie IA d’Apple. L’inventeur de l’iPhone a officialisé un accord stipulant que les modèles Gemini alimenteront la prochaine génération d’Apple Intelligence et le Siri entièrement remanié prévu pour fin 2026.

Le deal, qui prolonge leur collaboration historique sur la recherche (search), replace Google face à OpenAI dans la course à l’IA générative, avec un accès privilégié à plus de deux milliards d’appareils Apple actifs.

Gemini, socle technologique de l’IA pour Apple

Apple a tranché après évaluation en faveur de la technologie de Mountain View, jugeant que « la technologie d’intelligence artificielle de Google offrait la base la plus performante » pour ses modèles Apple Foundation. Ces briques logicielles alimenteront non seulement Siri, mais également l’ensemble des fonctionnalités futures d’Apple Intelligence.

Les termes financiers de l’accord restent confidentiels, mais des sources industrielles évoquent un montant de 1 milliard $ annuel.

Cette décision relègue ChatGPT, intégré de manière optionnelle fin 2024, à un rôle de simple complément pour les requêtes les plus complexes. Un camouflet pour OpenAI, dont le PDG Sam Altman a déclenché un « code red » interne face à la montée en puissance de Gemini 3. Comme le souligne Parth Talsania d’Equisights Research, ce choix  « rétrograde OpenAI en rôle secondaire », transformant ChatGPT en solution d’appoint plutôt qu’en fondation stratégique.

« Apple Intelligence continuera de fonctionner sur les appareils Apple et sur le cloud privé, tout en préservant les normes de confidentialité de pointe d’Apple » assure les deux groupes. L’architecture retenue permet à Apple de conserver le contrôle total de l’intégration, de l’orchestration et de l’interface utilisateur, limitant ainsi l’accès de Google aux données brutes de ses clients.

Gemini sur plus de 2 milliards de terminaux

Pour Google, l’enjeu dépasse largement la question financière. Gemini devient le standard de facto sur mobile grâce aux partenariats Apple et Samsung (déjà intégré dans Galaxy AI), ce qui booste mécaniquement les revenus cloud et enrichit les données d’entraînement. La valorisation boursière d’Alphabet a d’ailleurs franchi le cap symbolique des 4 000 milliards $, portée par une hausse spectaculaire de 65% en 2025 sur fond d’optimisme autour de l’IA.

Pour Apple, c’est une bouée de sauvetage stratégique qui accélère brutalement le rattrapage. Retardataire notoire sur l’IA générative, il a accumulé les déboires : reports successifs de la mise à niveau de Siri (décalée à 2026), départs d’exécutifs clés comme John Giannandrea et accueil tiède pour ses premiers outils d’intelligence artificielle.

L’accord avec Google permet d’accélérer brutalement le rattrapage en évitant des années de recherche et développement solitaire, tout en capitalisant sur un partenariat existant qui génère déjà des dizaines de milliards $ annuels via le trafic de recherche.

Ce deal risque toutefois d’attirer l’attention des autorités antitrust, déjà mobilisées sur les contrats d’exclusivité dans la recherche. L’extension au domaine de l’IA pourrait déclencher de nouvelles enquêtes sur les pratiques anticoncurrentielles.

Illustration : image générée par l’IA

The post Apple et Google scellent une alliance stratégique majeure dans l’IA appeared first on Silicon.fr.

  •  

Harmattan AI : la pépite française de l’IA de défense devient licorne

À peine neuf mois après sa création, Harmattan AI, spécialisée dans les systèmes autonomes de défense dopés à l’intelligence artificielle vient de boucler une levée de fonds de 200 millions $ en série B, portant sa valorisation à 1,4 milliard $.

Une opération menée par Dassault Aviation qui propulse la jeune pousse au rang de première licorne française de l’armement.

Dassault Aviation mise gros sur l’autonomie

En prenant la tête de ce tour de table aux côtés d’investisseurs financiers déjà présents, l’avionneur français ne se contente pas d’un pari financier. Il s’offre un partenaire stratégique pour ses futurs programmes aériens.

Harmattan AI est désormais positionnée pour développer les « fonctions d’IA embarquées » du Rafale F5, ainsi que les systèmes aériens inhabités (UCAS) qui accompagneront les chasseurs de sixième génération du SCAF (Système de combat aérien du futur).

Ce rapprochement s’inscrit dans une stratégie plus large orchestrée avec Thales et l’Agence ministérielle pour l’IA de défense (AMIAD) : bâtir une intelligence artificielle de combat souveraine, capable de rivaliser avec les géants américains et chinois.

Licorne en moins d’un an

Fondée en avril 2024 par Mouad M’Ghari et Martin de Gourcuff, Harmattan AI  développe une gamme complète de systèmes autonomes intégrés : drones de frappe et de surveillance, plateformes de commandement et briques logicielles d’IA embarquée. Son approche « full stack » ( maîtrise du hardware comme du software) séduit les états-majors.

Les succès commerciaux se sont enchaînés à une vitesse inédite dans un secteur réputé pour ses cycles décisionnels interminables. Un contrat emblématique avec la Direction générale de l’armement (DGA) pour plusieurs milliers de drones, destinés notamment à l’exercice militaire Orion 2026, puis une commande de l’armée britannique pour des drones d’entraînement. De quoi valider le modèle et attirer l’attention des industriels historiques.

Avec cette manne de 200 millions $, Harmattan AI vise une montée en cadence spectaculaire pour atteindre une production de plusieurs dizaines de milliers de drones par mois à court terme. Un objectif qui nécessitera de muscler considérablement l’appareil industriel et les chaînes d’approvisionnement.

Les fonds serviront également à étendre le déploiement de ses algorithmes d’IA à de nouveaux théâtres d’opérations : défense aérienne multi-niveaux, interception de drones, guerre électronique. L’entreprise compte renforcer massivement ses équipes de R&D et d’ingénierie logicielle pour tenir la cadence technologique face à une concurrence internationale qui s’intensifie.

La French Tech défense entre en scène

L’entrée d’Harmattan AI dans le club des licornes marque un tournant pour l’écosystème français de la défense. Longtemps dominé par les grands industriels historiques, le secteur voit émerger une nouvelle génération de startups qui articulent souveraineté, IA et capacité de production à grande échelle. À l’image d’Helsing en Allemagne ou d’Anduril aux États-Unis, ces jeunes pousses bousculent les codes et les positions établies.

Cette évolution reflète un changement doctrinal profond. Les armées françaises et européennes intègrent désormais pleinement les startups dans la chaîne de valeur de l’armement, conscientes que l’innovation de rupture vient souvent de l’extérieur des grands programmes étatiques. Le soutien de l’AMIAD et les nouvelles modalités d’achats publics facilitent ces rapprochements.

Reste désormais à transformer l’essai industriel. Car dans ce domaine ultra-exigeant où la fiabilité opérationnelle est non négociable, le passage de la startup prometteuse au fournisseur stratégique des armées constitue un marathon autrement plus redoutable qu’une levée de fonds, aussi spectaculaire soit-elle.

Image : © DR

The post Harmattan AI : la pépite française de l’IA de défense devient licorne appeared first on Silicon.fr.

  •  

Anthropic lance son offensive dans la santé avec Claude

Quelques jours seulement après l’annonce de son rival OpenAI, Anthropic réplique avec « Claude for Healthcare ».

La scale-up basée à San Francisco vient de dévoiler son offensive dans le secteur lucratif de la santé en annonçant que son chatbot Claude était désormais conforme à la norme HIPAA (Health Insurance Portability and Accountability Act). Un sésame réglementaire indispensable aux États-Unis pour permettre aux hôpitaux et prestataires de soins de manipuler des données de santé protégées.

Un hub de données personnelles sous conditions

Avec Claude for Healthcare, l’ambition d’Anthropic ne s’arrête pas aux couloirs des hôpitaux. Côté grand public, l’entreprise permet désormais à ses utilisateurs d’exporter leurs données de santé depuis des applications comme Apple Health ou Function Health. L’objectif est d’ aider les particuliers à centraliser leurs dossiers médicaux pour mieux les partager avec leurs médecins.

Toutefois, cette intégration directe est actuellement réservée aux utilisateurs basés aux États-Unis, où le cadre HIPAA prévaut. Pour les utilisateurs européens, si l’accès à Claude est disponible, l’importation automatisée de données biométriques reste soumise aux évolutions de la conformité locale (RGPD).

Claude intègre désormais des bases de données scientifiques (comme PubMed ou le registre NPI) pour étayer ses réponses par des citations vérifiables. Un argument de poids pour rassurer des cliniciens échaudés par les risques de désinformation liés à l’IA.

« L’IA est prête à avoir un impact majeur sur l’économie globale, dès lors que vous faites ce qu’il faut sur le plan réglementaire et des données », défend Mike Krieger, Chief Product Officer d’Anthropic, en garantissant qu’il n’utilisera pas les données de santé de ses utilisateurs pour entraîner ses modèles.

Une bataille de géants pour le « care »

Si le marché est colossal, la concurrence féroce. Selon Anthropic, Claude séduit déjà des géants comme le système de santé à but non lucratif Banner Health où 22 000 prestataires l’utilisent, mais aussi le groupe pharmaceutique Novo Nordisk ou le centre hospitalier universitaire Stanford Health Care.

Alors que des discussions sont en cours pour une levée de fonds sur la base d’une valorisation stratosphérique de 350 milliards $, Anthropic doit prouver que l’IA peut non seulement automatiser le code informatique, un de ses points forts actuels, mais aussi transformer radicalement la recherche biologique. Le diagnostic ne fait que commencer.

Illustration : © DR

The post Anthropic lance son offensive dans la santé avec Claude appeared first on Silicon.fr.

  •  

Andreessen Horowitz franchit un nouveau cap avec 15 milliards de dollars levés

Le fonds d’investissement Andreessen Horowitz (a16z) vient d’annoncer une levée colossale dépassant légèrement 15 milliards de dollars. Un montant qui représente plus de 18 % de l’ensemble du capital-risque distribué aux États-Unis durant l’année 2025, selon les déclarations de Ben Horowitz, cofondateur de la firme. Cette nouvelle injection propulse a16z au-delà de 90 milliards de ... Lire plus

L'article Andreessen Horowitz franchit un nouveau cap avec 15 milliards de dollars levés est apparu en premier sur Fredzone.
  •  
❌