Vue lecture

IA : Lenovo mise sur une stratégie multi-LLM

C’est un virage stratégique que Winston Cheng, directeur financier de Lenovo, a détaillé en marge du Forum économique mondial de Davos. Le leader mondial de l’informatique personnelle ne veut plus seulement être un assembleur de machines, mais le pivot d’un écosystème mondial d’IA

Son ambition ? Équiper l’ensemble de sa gamme – des PC aux smartphones en passant par les objets connectés – d’une intelligence cross-canal baptisée « Qira ».

Qira se distingue comme un système d’intelligence « cross-device » qui intègre de multiples modèles de langage tiers (LLM) pour permettre de  s’adapter aux régulations de chaque marché mondial

Un modèle à l’opposé d’Apple

Pour réussir ce pari, Lenovo mise sur une approche dite d’« orchestrateur ». Contrairement à Apple, dont l’écosystème reste verrouillé avec des partenariats exclusifs avec OpenAI et plus récemment avec Google Gemini, la firme chinoise joue la carte de l’ouverture géographique et technologique.

« Nous sommes la seule entreprise, avec Apple, à détenir une part de marché significative à la fois sur le PC et le mobile, mais nous opérons dans les écosystèmes ouverts Android et Windows », a souligné Winston Cheng à Reuters.

Un avantage comparatif que l’ancien banquier d’affaires, arrivé dans le groupe en 2024 et nommé CFO en avril 2025, compte bien exploiter pour contourner les complexités réglementaires locales.

Une diplomatie de l’IA tous azimuts

Plutôt que de développer son propre modèle de langage (LLM), Lenovo préfère s’allier aux meilleurs experts régionaux. Le groupe discute déjà avec des acteurs variés comme Mistral AI en Europe, Humain en Arabie Saoudite ainsi que e Alibaba et DeepSeek en Chine.

Cette stratégie permet à Lenovo de proposer des solutions adaptées aux régulations de chaque marché tout en évitant les coûts de développement d’un modèle propriétaire.

Sur le front du matériel, Lenovo ne néglige pas l’infrastructure. Un partenariat majeur a été scellé en janvier avec l’américain Nvidia pour soutenir les fournisseurs de cloud. Ensemble, les deux géants déploient une infrastructure d’IA hybride dotée d’un système de refroidissement liquide, permettant une mise en service rapide des centres de données.

Winston Cheng a d’ailleurs évoqué un déploiement mondial, avec une fabrication locale et des lancements envisagés en Asie et au Moyen-Orient.

 

The post IA : Lenovo mise sur une stratégie multi-LLM appeared first on Silicon.fr.

  •  

TikTok US : pourquoi Oracle et ses partenaires lâchent 14 milliards $

 Le feuilleton TikTok touche enfin à sa fin. La plateforme de médias sociaux annonce officiellement le rachat de ses activités américaines. Un consortium, mené par trois investisseurs principaux, prend les commandes de la nouvelle entité se nomme TikTok USDS Joint Venture LLC.
Cette décision met un terme à des années d’incertitude sur l’avenir du réseau social aux Etats-Unis.

Oracle, le fonds Silver Lake et MGX (basé à Abu Dhabi) en détiennent la majorité. D’autres investisseurs rejoignent l’aventure. On y trouve notamment Dell Family Office, la société de Michael Dell, ainsi que NJJ Capital, le family office de Xavier Niel.

Le cadre légal et financier de l’accord

La loi sur la protection des Américains contre les applications contrôlées par des adversaires étrangers a imposé cette vente.

Signé en 2024 par Joe Biden, ce texte obligeait ByteDance à réduire sa participation dans TikTok US à moins de 20 %. Le groupe chinois devait céder le contrôle avant le 20 janvier 2025 pour éviter une interdiction nationale.

Désormais, ByteDance limite sa participation à 19,9 %. Toutefois, le groupe conserve le contrôle sur les segments les plus lucratifs. Il garde notamment la main sur la division publicitaire et la branche e-commerce TikTok Shop, actuellement en pleine croissance.

Par ailleurs, Adam Presser prendra la direction de cette nouvelle entité. Ce lieutenant de longue date de Shou Zi Chew, le PDG. de TikTok assurera la continuité opérationnelle du réseau.

Le Wall Street Journal révèle que les investisseurs versent une commission de plusieurs milliards de dollars à l’État américain. Donald Trump avait précédemment qualifié ce concept de « tremendous fee-plus ».

Quatre piliers pour la sécurité nationale

La joint-venture s’appuiera sur des garanties strictes pour protéger la sécurité nationale. Ces mesures concernent les données, l’algorithme, la modération et les logiciels.

    • Protection des données : USDS Joint Venture protégera les données des utilisateurs américains via l’infrastructure cloud sécurisée d’Oracle. Un programme complet de cybersécurité, audité par des experts tiers, encadrera l’ensemble. Ce dispositif respectera les normes NIST CSF, ISO 27001 et les exigences de la CISA.

    • Sécurité de l’algorithme : La nouvelle entité entraînera et testera l’algorithme de recommandation de contenu sur le sol américain. Oracle supervisera directement la gestion des données et l’entraînement de ces modèles.

Assurance logicielle et gouvernance

En complément, la joint-venture sécurisera les applications grâce à des protocoles d’assurance logicielle. Oracle examinera et validera le code source de manière continue pour garantir une transparence totale.

En matière de modération, la joint-venture aura l’autorité finale sur les politiques de confiance et de sécurité. Le personnel américain de TikTok rejoindra cette nouvelle unité.

Cependant, la situation reste nuancée. Selon des sources proches du dossier, de nombreux employés resteront rattachés à ByteDance, même si une partie intègre la joint-venture.

The post TikTok US : pourquoi Oracle et ses partenaires lâchent 14 milliards $ appeared first on Silicon.fr.

  •  

Quand 2 frangins construisent une IA vidéo dans leur garage

Un modèle text-to-video open source, gratuit et capable de tourner ailleurs que sur un supercalculateur de la NASA ?

J'avoue, j'ai cru au fake en découvrant le truc, surtout quand on voit la puissance de feu qu'il faut chez OpenAI (Sora) ou Google (Veo) pour sortir le moindre clip de 3 secondes. Mais BON, parfois, il suffit de deux frères motivés pour bousculer un peu les géants de l'IA.

Et c'est 2 frères, ce sont Sahil et Manu Chopra, qui depuis l'automne 2022 bosse avec acharnement sur leur modèle de génération de vidéos baptisé Linum .

Leur histoire est assez dingue et c'est pour ça que je vous la raconte aujourd'hui. En fait, au début, ils ont fait comme tout le monde. C'est à dire qu'ils ont essayé de bidouiller Stable Diffusion XL pour lui faire cracher de la vidéo. Ils ont fini par mettre au point une extension un peu "hacky" basé sur un modèle image, sauf que ça ne marchait pas très bien.

Enfin si, ça sortait des GIFs d'une seconde en 180p pour Discord mais pas vraiment de quoi faire trembler Hollywood et Matthew McConaughey (lol). Le problème, c'est que les VAE (les encodeurs d'images) ne comprennent rien au temps qui passe, alors ils traitent chaque frame indépendamment et ça donne cet effet de scintillement insupportable qu'on retrouve dans pas mal de générateurs vidéo libre ou open source.

Du coup, ils ont pris une décision radicale. Tout foutre à la poubelle et repartir de zéro !

Ils ont donc passé deux longues années à batir Linum v2 "from scratch". Cela veut dire qu'il ont du trouver les données, entraîner des modèles de vision pour filtrer le dataset, mettre manuellement des légendes sur des milliers de vidéos, gérer les clusters de GPU... et j'en passe !

Et à la clé de tout ce travail, ils ont fini par obtenir un modèle de 2 milliards de paramètres (ce qui est minuscule pour de la vidéo, je tiens à le dire) capable de générer des clips de 2 à 5 secondes en 720p !

Et le plus beau c'est que c'est sous licence Apache 2.0 donc en open source.

Pour réussir cette prouesse, ils n'ont pas eu d'autre choix que d'être malins.

Par exemple, ils ont choisi d'utiliser le VAE de Wan 2.1 (qui gère très bien la compression temporelle) pour ne pas réinventer la roue sur cette partie. Leur vision en fait, c'est de voir ces modèles comme des "moteurs de rendu inversés". Au lieu de placer des polygones et des lumières comme dans Blender, vous décrivez la scène et le modèle fait le reste.

Linum est un modèle encore jeune et la physique est parfois aux fraises puis ça manque de son mais pour une équipe de deux personnes face à des boîtes qui ont des milliards de budget, le résultat est plutôt pas mal. Faut saluer le taf !

Donc si vous avez une machine qui tient la route (ou un bon cloud) et quelques compétences techniques, sachez que les poids sont disponibles sur Hugging Face si ça vous chauffe .

Source

  •  

Thoma Bravo : le géant qui redessine la carte du logiciel mondial

Oubliez les levées de fonds de quelques millions dans la Silicon Valley. Chez Thoma Bravo, on joue dans la catégorie des poids lourds mondiaux. Au 1er janvier 2026, les chiffres donnent le vertige : le fonds gère 184 milliards $ d’actifs et a réalisé plus de 565 acquisitions depuis sa création (en 2003), pour une valeur transactionnelle cumulée dépassant les 285 milliards $.

Cette puissance de feu est le fruit d’une spécialisation monomaniaque : le logiciel d’entreprise. Contrairement aux fonds de Venture Capital qui diversifient leurs prises de participation, Thoma Bravo – du nom de ses deux co-fondateurs Carl Thoma et Orlando Bravo – a bâti un empire sur un constat simple : le logiciel est le business model le plus prévisible et le plus rentable de l’histoire.

La trajectoire est fulgurante : en 2016, Thoma Bravo gérait  « seulement » 9 milliards $. Moins de dix ans plus tard, il affiche une multiplication par vingt de ses actifs.

En 2025, le fonds a encore frappé un grand coup en levant 34,4 milliards $ pour ses nouveaux véhicules d’investissement : Fund XVI (24,3 milliards, le plus grand fonds tech de l’histoire), Discover Fund V (8,1 milliards) et un fonds Europe inaugural de 1,8 milliard €. Tous ont dépassé leurs objectifs initiaux, prouvant que même dans un contexte de taux élevés et de difficultés généralisées de collecte dans le private equity, l’appétit des investisseurs pour la méthode Bravo reste insatiable.

Le « buy and build » : construire des forteresses par l’acquisition

La stratégie de Thoma Bravo ne s’arrête pas au rachat d’une entreprise mais repose sur le concept de « plateforme ». Le fonds identifie un leader de secteur, le rachète pour plusieurs milliards, puis s’en sert comme d’un aimant pour absorber ses concurrents plus petits. Avec plus de 40 sociétés de logiciels en portefeuille générant 30 milliards $ de revenus annuels dont 90% récurrents via le SaaS, Thoma Bravo s’est transformé en véritable « banque centrale » du logiciel B2B.

Le rythme s’est d’ailleurs intensifié : 36 acquisitions réalisées en 2024 contre 22 en 2023, et une cadence soutenue en 2025 avec des deals majeurs comme Olo (2 milliards de dollars), Dayforce (12,3 milliards) et Verint (2 milliards). Sans oublier l’acquisition spectaculaire de l’activité Digital Aviation Solutions de Boeing pour 10,55 milliards $ démontrant que le fonds joue désormais dans la même cour que les grands groupes cotés.

La cybersécurité et le SaaS en étendard

Axe central de ses investissements : la cybersécurité. L’idée est de. créer un guichet unique de la cyber capable de verrouiller un marché mondial attendu à plusieurs milliers de milliards de dollars d’ici la fin de la décennie.

Après avoir racheté Sophos pour 3,9 milliards $ en 2019, le fonds a multiplié les « add-ons » (acquisitions complémentaires) comme Barracuda Networks, SailPoint, Darktrace ou encore Proofpoint (payé 12,3 milliards en 2021). Aujourd’hui, plus de 20 plateformes de cybersécurité représentent environ 60 milliards $ de valeur d’entreprise cumulée dans son portefeuille.

L’idée : créer un guichet unique de la sécurité informatique capable de verrouiller un marché mondial attendu à plusieurs milliers de milliards de dollars d’ici la fin de la décennie.

Thoma Bravo agit avec la même frénésie pour la conquête du SaaS d’entreprise. Dans la relation client et le go-to-market, il assemble progressivement un quasi-géant caché. L’acquisition d’Anaplan (10,7 milliards), Coupa Software (8 milliards en 2022), Conga, Hyland, et plus récemment de PROS (1,4 milliard $pour ce spécialiste de la tarification dynamique) dessine une stratégie pour contrôler toute la chaîne des « revenue operations », du CPQ à la gestion des prix en passant par le contenu et la donnée client.

La « Méthode Bravo » : l’alchimie de la rentabilité opérationnelle

Ce qui distingue Thoma Bravo, c’est ce qu’il se passe après la signature du rachat. Le fonds déploie ses Operating Partners, des anciens directeurs opérationnels qui appliquent un « playbook » (manuel de gestion) ultra-standardisé. La méthode est de maximiser la génération de cash à partir de revenus récurrents, puis le recycler dans des acquisitions ciblées. Les recettes sont rodées : rationalisation des coûts, recentrage produit, hausse des prix là où l’élasticité le permet, et intégration de briques complémentaires pour densifier la plateforme.

Ellie Mae est sans doute le coup le plus fumant de l’histoire du fonds. Thoma Bravo rachète ce spécialiste des logiciels de crédit immobilier pour 3,7 milliards $. Dix-huit mois plus tard, il le revend pour 11 milliards $ à Intercontinental Exchange. Le secret : en un an et demi, les marges d’EBITDA sont passées de 18% à 60%. Une transformation chirurgicale des coûts et du modèle de vente.

Un autre cas d’école est celui de Compuware/Dynatrace. En 2014, Thoma Bravo rachète Compuware pour 2,2 milliards $, isole Dynatrace, accélère son positionnement sur le cloud puis l’introduit en Bourse avec un multiple largement supérieur à celui payé sur l’ensemble du groupe initial. L’éditeur de solutions de monitoring applicatif (APM) est entièrement reconfiguré, passant d’un modèle de vente de licences à un modèle d’abonnement (SaaS), avant d’être réintroduit avec succès au Nasdaq avec une marge opérationnelle dépassant les 30%.

Le fonds ne se contente pas de couper dans les budgets ; il force ses entreprises à adopter la « Règle des 40 » (la somme de la croissance du chiffre d’affaires (en %) et de la marge mesurée en EBITDA (en %) doit être supérieure à 40%). Pour Thoma Bravo, une entreprise IT qui ne génère pas de cash-flow massif est une erreur de casting. Et quand la discipline opérationnelle l’exige, le fonds n’hésite pas : les coupes de 40 à 50% des effectifs annoncées début 2026 dans les actifs de Boeing Digital Aviation Solutions en témoignent.

Une machine à sorties qui défie les cycles

Même avec un marché des IPO atone, Thoma Bravo continue d’encaisser. Entre 2023 et 2025, la firme a généré entre 25 et 35 milliards $ de cessions cumulées, via des ventes secondaires, des exits industriels ( comme le rachat d’Imperva par Thales) ou des introductions en Bourse sélectives.

Son bilan historique parle de lui-même : 131 acquisitions, 82 exits réalisées, dont 4 en 2024 (Greenphire, ServiceTitan, Solifi). Cette capacité à liquider ses participations avec profit dans tous les environnements de marché fait de Thoma Bravo un cas unique dans le private equity tech.

C’est même devenu un faiseur de rois, capable d’orienter à lui seul les valorisations et les consolidations dans des pans entiers de l’IT mondiale. Chaque opération de Thoma Bravo pèse sur les multiples et les attentes de rendement : les valorisations offertes, les plans de restructuration et les arbitrages entre Bourse et marché privé.

Le « Grand Bond » européen : 1,8 milliard € pour le continent

Avec le lancement d’un fonds Europe de 1,8 milliard d’euros, l’offensive s’étend au Vieux Continent, avec en ligne de mire des éditeurs allemands et français, notamment dans la conformité et la cybersécurité. C’est ainsi que Vade, le spécialiste français de la sécurité de la messagerie, est tombé dans son escarcelle via son rachat par l’allemand Hornet Security, lui même repris par Proofpoint.

Le bureau de Londres n’est plus une simple antenne, c’est devenu le poste de commandement d’une conquête méthodique qui redessine la carte de la souveraineté numérique européenne. Orlando Bravo a identifié une faille structurelle : un continent sous-numérisé par rapport aux États-Unis, mais qui regorge d’ingénieurs de talent et d’éditeurs de niche à valorisation déprimée.

Le marché européen de l’IT croît à 8,7% par an, soit trois fois plus vite que le PIB de la zone euro, créant un terreau idéal pour sa méthode. La cible : des entreprises de logiciels valorisées entre 500 millions et 2 milliards € trop grandes pour le capital-risque classique, mais trop petites pour les géants industriels.

Le cas Darktrace illustre parfaitement cette approche. En 2024, Thoma Bravo a déboursé 5,3 milliards $ pour racheter ce fleuron britannique de la cybersécurité. Objectif : appliquer le  » playbook américain » en basculant 100% des revenus vers un modèle d’abonnement pur et forcer l’entrée sur le marché américain, là où les marges sont les plus élevées.

Autre exemple révélateur : EQS Group en Allemagne. Racheté pour environ 400 millions €, ce spécialiste de la conformité réglementaire et de l’ESG incarne la stratégie du fonds qui vise les logiciels que les régulateurs rendent obligatoires. En sortant EQS de la bourse de Francfort, le fonds peut désormais le fusionner avec d’autres acteurs de la RegTech (Regulatory Technology) pour bâtir un champion paneuropéen de la conformité, un marché promis à une croissance exponentielle avec le durcissement des normes européennes.

En France, la sonnette d’alarme du CESIN

La puissance de Thoma Bravo n’est pas passée inaperçue en Europe. En juillet 2024, le CESIN (Club des Experts de la Sécurité de l’Information et du Numérique), qui regroupe plus d’un millier de CISO français, a publiquement tiré la sonnette d’alarme.

Pour Alain Bouillé, son délégué général, outre les inquiétudes sur la méthode, l’aspect le plus sensible concerne les données. Ces solutions de cybersécurité sont par nature extrêmement intrusives : elles collectent et analysent les flux réseau, les emails, les données applicatives. Une concentration de cette ampleur entre les mains d’un fonds américain pose la question de la souveraineté numérique.

Outre-Atlantique, les critiques se multiplient également. Le Department of Justice américain a ouvert plusieurs enquêtes approfondies sur les acquisitions du fonds, notamment sur le rachat de ForgeRock en 2022. Les régulateurs antitrust craignaient qu’en combinant ForgeRock avec Ping Identity, déjà dans le portefeuille de Thoma Bravo, le fonds ne contrôle une part excessive du marché stratégique de la gestion d’identités.

L’affaire a même poussé plusieurs directeurs de Thoma Bravo à démissionner de conseils d’administration pour éviter une violation du Clayton Act, qui interdit les administrateurs communs entre entreprises concurrentes. En 2022, l’éditeur britannique Mimecast a refusé une offre de Thoma Bravo pourtant supérieure de 16% à celle d’un concurrent, estimant que la fusion avec Proofpoint créerait une position dominante de plus de 50% sur le marché de la sécurité email, avec un risque réglementaire trop élevé.

Le « Frankenstein » de la cyber

Dans l’industrie IT elle-même, les avertissements se font entendre. Nir Zuk, fondateur de Palo Alto Networks, a qualifié la stratégie de Thoma Bravo de construction d’un monstre de Frankenstein dans la cybersécurité. Avec un portefeuille représentant environ 58 milliards de dollars de valeur d’entreprise, 6,5 milliards de revenus annuels et 19 000 employés le fonds pourrait du jour au lendemain créer un géant capable de concurrencer les trois leaders historiques du marché (Cisco, Check Point et Palo Alto Networks).

Mais c’est peut-être l’affaire RealPage qui cristallise le plus les critiques. Cette entreprise de gestion locative, rachetée par Thoma Bravo en 2021, fait face à plus de 30 class actions et à des poursuites du Department of Justice et de huit États pour pratiques anticoncurrentielles. Son algorithme de tarification est accusé de permettre aux propriétaires de coordonner leurs prix et d’éviter la concurrence, contribuant à l’inflation des loyers. San Francisco, Minneapolis, San Diego et Philadelphie ont même banni l’utilisation du logiciel sur leur territoire.

Matt Stoller, auteur de « Goliath: The 100-Year War Between Monopoly Power and Democracy« , résume la critique dans une formule cinglante : Thoma Bravo augmente les prix et réduit la qualité, mais personne n’écoute les responsables IT qui lancent des alertes sur les risques et la dégradation des logiciels. Le scandale SolarWinds en 2020, où une faille de sécurité massive a permis à des hackers russes d’infiltrer des agences gouvernementales américaines, a ravivé ces inquiétudes. SolarWinds, propriété de Thoma Bravo, aurait sous-investi dans la sécurité pour maximiser ses marges.

Orlando Bravo à Davos : « L’IA est une opportunité, pas une menace »

Pas de quoi ébranler la confiance d’Orlando Bravo dans. son modèle. Lors du Forum économique mondial de Davos, il a expliqué au Financial Times que la récente correction des valorisations des éditeurs de logiciels, provoquée par les peurs autour de l’intelligence artificielle, créait une opportunité d’achat massive.

Sa thèse : les investisseurs surréagissent en imaginant que les grandes entreprises vont remplacer leurs logiciels traditionnels par des outils IA maison. Selon lui, c’est méconnaître la nature même de la valeur du logiciel. Ce qui compte, ce n’est pas le code ou la technologie, c’est la connaissance profonde des métiers. La plupart des éditeurs de logiciels maîtrisent un secteur vertical, un processus ou une fonction si spécifique qu’il n’existe que trois à cinq entreprises au monde capables de le faire, et environ vingt individus qui le comprennent vraiment. Cette expertise irremplaçable constitue la véritable franchise, la valeur réelle que l’IA ne peut pas répliquer.

Une vision qui contraste frontalement avec celle d’autres géants du private equity. Apollo Global a réduit son exposition aux éditeurs de logiciels et a même parié à la baisse sur certaines de leurs dettes par crainte de l’IA. Jonathan Gray, président de Blackstone, a fait de l’évaluation des risques liés à l’IA la priorité absolue du groupe pour les nouveaux investissements.

L’optimisme d’Orlando Bravo n’est pas nouveau. En 2021, alors que les valorisations tech atteignaient des sommets, il déclarait qu’il serait presque irresponsable de se retenir d’investir par peur des prix élevés, ironisant sur ceux qui attendent que le marché devienne bon marché. Quelques mois plus tard, la remontée brutale des taux de la Fed faisait s’effondrer les valorisations tech. Cette année-là, Thoma Bravo avait réalisé une vague de rachats à des multiples que beaucoup de financiers jugent aujourd’hui trop élevés.

L’acquisition de Medallia pour 6,4 milliards $ en est l’illustration : l’opération a depuis tourné au vinaigre, en partie à cause de problèmes liés… à l’IA. Un rappel que même la machine Thoma Bravo n’est pas infaillible.

The post Thoma Bravo : le géant qui redessine la carte du logiciel mondial appeared first on Silicon.fr.

  •  

Loot Drop - Le cimetière des startups

J'avoue, j'ai un peu de mal avec l'univers des start-ups. Vous savez, ce petit monde des levées de fonds à rallonge, des pitchs sur LinkedIn et des banquiers qu'il faut brosser dans le sens du poil... C'est clairement pas mon truc. Je préfère rester dans mon coin, avec mon petit site, mon clavier et des gens qui aiment me lire.

La liberté quoi (en théorie ^^).

Mais bon, c'est pas parce que je n'aime pas l'écosystème que je ne respecte pas le boulot abattu, bien au contraire ! Monter une boîte, c'est un sacerdoce et pas mal de mecs et de filles s'y brûlent les ailes et beaucoup finissent par se planter.

C'est moche, mais c'est la réalité du business, surtout dans la tech !

Toutefois si vous avez créé votre propre startup je viens de trouver un site génial qui s'appelle Loot Drop . En gros c'est le cimetière des startups qui recense, à l'heure où j'écris, plus de 1200 startups qui ont mordu la poussière, soit plus de 48,4 milliards de dollars de capital-risque partis en fumée !!

Le créateur du site, un certain AnsbjergB a créé ça "vibe coding" pur à l'aide d'outils comme Cursor et Supabase pour coder à la vitesse de la lumière sans forcément non plus être un cador du développement pur.

Et son idée derrière Loot Drop, c'est de "piller" ces échecs puisque le site vous donne un score d'opportunité pour chaque "cadavre" tech. Vous pouvez ainsi filtrer par difficulté de reconstruction, par scalabilité ou par potentiel de marché.

Alors pourquoi recenser ces échecs ?

Hé bien parce que souvent, une startup se plante non pas parce que l'idée est mauvaise, mais parce qu'elle était trop gourmande. Trop d'employés, trop de bureaux luxueux, trop de marketing inutile. Alors en récupérant l'idée de la défunte et en la relançant en mode passionné indépendant , sans les 50 millions de levée de fonds, y'a peut être encore moyen de faire un truc super rentable.

J'ai trouvé le design du site est super sympa. Je crois que c'est à la mode en ce moment le "neo-brutalism" parce que j'en vois partout mais celui-ci a un petit côté gamer que j'aime bien. On sent le mec qui s'est fait plaisir sur les couleurs et l'ambiance en mode "loot de fin de donjon", mdr.

Voilà, donc si vous avez envie de trouver une idée de projet pour votre prochain week-end à fond sur Claude Code (loool), ou juste d'admirer le gâchis de thunes monumental de la Silicon Valley, allez y faire un tour.

C'est riche en enseignements et ça vous évitera peut-être de reproduire les mêmes conneries que les autres.

  •  

Capgemini : un plan de 2 400 suppressions de postes en France

Capgemini envisage jusqu’à 2 400 suppressions de postes, soit environ 7% de ses quelque 35 000 salariés dans l’Hexagone. Le groupe de servicesIT, qui emploie près de 355 000 personnes dans le monde, concentre donc l’effort de réduction sur la France, où l’activité souffre d’un ralentissement dans plusieurs secteurs.

Selon le communiqué transmis à l’AFP, la première ESN de France explique ce projet par un environnement économique marqué par une croissance modérée et par les difficultés de certains marchés, notamment l’automobile et d’autres industries en mutation. Capgemini insiste également sur la nécessité de se « transformer » face aux évolutions technologiques rapides, citant explicitement l’essor de l’IA, du SaaS, de l’offshore et de l’internalisation croissante de certaines compétences chez les clients.

Selon la CFDT, ​les entités du groupe concernées sont Altran, Apps, CIS, Engineering, FS, Fonctions Support, I&D et Sogeti.

Volontariat, reconversions et ruptures conventionnelles

Capgemini insiste sur le caractère volontaire du dispositif, structuré autour de deux grandes options. D’une part, une reconversion interne proposée aux salariés concernés, avec des parcours de formation et de certification vers des « métiers d’avenir », notamment dans l’IA, le cloud et la data. D’autre part, un dispositif de rupture conventionnelle collective (RCC) permettant des départs volontaires assortis de mesures d’accompagnement spécifiques.

L’ESN précise que ce plan doit encore être présenté aux instances représentatives du personnel et fera l’objet d’une négociation avec les organisations syndicales, afin de définir par accord collectif les modalités détaillées, les critères d’éligibilité et les compensations.

Les syndicats, de leur côté, dénoncent une restructuration d’ampleur dans une entreprise qui reste bénéficiaire, et s’inquiètent du risque de dégradation des conditions de travail pour les équipes restant en place.

« Nous allons aussi analyser le rapport entre mobilité interne (nombre d’ouverture de postes) et la mobilité externe (Rupture Conventionnelle Collective) dans ce projet. En clair, quelle est la réduction d’effectif visée par la Direction (ce n’est pas clairement indiqué).» indique la CFTC.
Quant à la CGT,elle dénonce notamment « une communication diffusée par voie de presse avant même l’information des CSE et du CSEC, provoquant inquiétude et stress chez les salarié·es » .

Un signal pour l’écosystème des ESN

Dans sa communication, Capgemini met en avant l’accélération des mutations technologiques, « notamment l’intelligence artificielle », comme un moteur central de cette réorganisation. Le groupe cherche à se repositionner sur des activités jugées plus porteuses à moyen terme, en s’appuyant sur les investissements réalisés ces dernières années dans l’IA générative et l’IA dite agentique, ainsi que dans les services cloud et data.

Cette dynamique s’inscrit dans un mouvement plus large qui touche l’ensemble des ESN, confrontées à la fois à la pression sur les prix, à la généralisation de l’offshore et à l’automatisation de certaines tâches traditionnellement réalisées par des consultants et développeurs.

Le plan Capgemini intervient après une année 2025 marquée, dans le secteur numérique français, par un ralentissement des recrutements et une montée du recours au nearshore et à l’offshore, passés à près de 18% des effectifs externalisés contre 15,5% un an plus tôt selon les données de Numeum. Les grandes ESN, qui avaient massivement embauché après la pandémie, réajustent désormais leurs effectifs face à une demande moins dynamique et plus volatile.

The post Capgemini : un plan de 2 400 suppressions de postes en France appeared first on Silicon.fr.

  •  

Comment OpenAI façonne son modèle économique au fil du « compute »

Une opération de communication pour lever les doutes sur le modèle modèle économique et clarifier les perspectives de croissance, c’est le sens du long billet de blog publiée par Sarah Friar, la directrice financière d’OpenAI, sous le titre  » Une entreprise qui évolue en fonction de la valeur de l’intelligence ».

Si l’inventeur de ChatGPT capte une grande partie de la lumière du business de la GenAI depuis trois ans, il cristallise aussi les inquiétudes sur les investissements faramineux et les craintes sur un déficit de ROI qui pourraient faire éclater « la bulle de l’IA » alimentée par les investissements titanesques dans les infrastructures.

Pour rassurer sur la capacité d’OpenAI à créer de la valeur, Sarah Friar révèle que les revenus annualisés ont bondi de 2 milliards $ en 2023 à plus de 20 milliards en 2025. Une multiplication par dix en deux ans ! Et de préciser que cette explosion des revenus est proportionnelle à celle de la puissance de calcul déployée à coup de centaines de milliards investis dans les infrastructures.

Le compute, moteur de la croissance

« Notre capacité à servir nos clients se mesure directement à notre puissance de calcul disponible », écrit Sarah Friar. Les chiffres parlent d’eux-mêmes : la capacité de calcul d’OpenAI est passée de 0,2 gigawatt en 2023 à 0,6 GW en 2024, pour atteindre environ 1,9 GW en 2025. Soit une multiplication par 9,5 en deux ans, avec un triplement annuel.

Cette corrélation parfaite entre infrastructure et revenus dessine le modèle économique d’OpenAI. « Il s’agit d’une croissance jamais vue à une telle échelle », affirme la directrice financière, qui ajoute que davantage de compute aurait permis une adoption et une monétisation encore plus rapides.

Partie des abonnements grand public, l’entreprise a progressivement étendu son offre aux entreprises, avant d’ajouter une tarification à l’usage pour les développeurs via son API. « Au fur et à mesure que l’IA s’intégrait dans les équipes et les workflows, nous avons créé des abonnements professionnels et ajouté une tarification basée sur l’usage, afin que les coûts évoluent avec le travail réellement effectué », explique-t-elle.

La semaine dernière, OpenAI a franchi un nouveau cap en annonçant l’introduction de publicités dans ChatGPT pour certains utilisateurs américains. Elle devrait également dévoiler son premier « produit Hardware » au second semestre 2026, comme l’a rapporté Axios en début de semaine.

Sarah Friar évoque de nouveaux modèles économiques au-delà des abonnements et des API : licences, accords basés sur la propriété intellectuelle et tarification basée sur les résultats. « À mesure que l’intelligence s’étend à la recherche scientifique, la découverte de médicaments, les systèmes énergétiques et la modélisation financière, de nouveaux modèles économiques émergeront », prédit-elle.

2026 : l’année de « l’adoption pratique »

L’année 2026 sera celle de « l’adoption pratique », annonce la directrice financière. « La priorité est de combler l’écart entre ce que l’IA rend désormais possible et la façon dont les gens, les entreprises et les pays l’utilisent au quotidien », écrit-elle.

L’opportunité se révèle particulièrement importante dans trois secteurs : la santé, les sciences et l’entreprise, où une meilleure intelligence se traduit directement par de meilleurs résultats. OpenAI mise sur une nouvelle génération d’agents intelligents et l’automatisation des workflows, capables de fonctionner en continu, de conserver le contexte dans le temps et d’agir sur différents outils.

Une stratégie d’infrastructure diversifiée

Face aux critiques sur ses dépenses massives, Sarah Friar défend une approche pragmatique. OpenAI maintient un bilan « léger » en privilégiant les partenariats plutôt que la propriété. Il y a trois ans, l’entreprise dépendait d’un seul fournisseur de compute. Aujourd’hui, elle collabore avec un écosystème diversifié de partenaires, incluant Microsoft, Oracle et d’autres acteurs.

Ce changement apporte de la certitude sur l’accès au compute. « Nous pouvons planifier, financer et déployer de la capacité avec confiance dans un marché où l’accès au compute définit qui peut passer à l’échelle », explique-t-elle.

Cette diversification permet à OpenAI de concentrer ses ressources sur l’innovation tout en conservant l’agilité nécessaire pour naviguer dans l’évolution rapide du secteur.

« L’infrastructure élargit ce que nous pouvons offrir. L’innovation étend ce que l’intelligence peut faire. L’adoption étend qui peut l’utiliser. Les revenus financent le prochain bond en avant », conclut Sarah Friar.

The post Comment OpenAI façonne son modèle économique au fil du « compute » appeared first on Silicon.fr.

  •  

Cloudflare mise gros sur Astro

Début d’années riche en acquisitions pour Cloudflare. Après l’achat de Human Native, c’est l’équipe d’Astro Technology qui rejoint ses effectifs.

L’opération, dont les termes financiers n’ont pas été divulgués, marque une nouvelle étape dans la guerre d’influence que se livrent les géants du cloud pour contrôler l’écosystème du développement web.

Astro s’est imposé comme un framework JavaScript incontournable utilisé par des marques majeures comme Unilever, Visa et NBC News, ainsi que par des centaines de milliers de développeurs à travers le monde. Sa particularité ? Chaque page web ne charge que le code strictement nécessaire à son affichage dans le navigateur, une approche qui optimise drastiquement les performances.

Dans un environnement où les moteurs de recherche privilégient les sites au chargement rapide et où les consommateurs exigent une instantanéité quasi totale, cette technologie répond à un besoin critique du marché. Les sites reposant massivement sur JavaScript pour le rendu initial peinent à offrir cette vitesse, au détriment de leur référencement et de leurs taux de conversion.

L’open source comme arme stratégique

Matthew Prince, cofondateur et PDG de Cloudflare, ne s’y trompe pas en affirmant sa philosophie : « Protéger et investir dans les outils open source est essentiel à la santé d’un Internet libre et ouvert ». Contrairement aux craintes qui entourent habituellement les rachats par les grands groupes, Astro conservera sa licence MIT et restera entièrement open source.

Cette décision n’est pas anodine. Elle s’inscrit dans une stratégie éprouvée par Cloudflare, qui a déjà démontré son soutien à des projets comme TanStack et Hono sans chercher à verrouiller ces technologies. L’entreprise s’engage même à poursuivre le financement du Astro Ecosystem Fund, aux côtés de partenaires industriels comme Webflow, Netlify, Wix et Sentry.

Une intégration déjà bien avancée

Astro constitue déjà l’architecture de plateformes comme Webflow et Wix qui fonctionnent sur Cloudflare. Cette acquisition officialise donc une collaboration de longue date. Cloudflare n’a d’ailleurs jamais caché son rôle de sponsor et défenseur du projet depuis ses débuts.

Le timing de l’opération est particulièrement stratégique. Astro 6, dont la version bêta vient d’être lancée, introduit un serveur de développement repensé alimenté par l’API Vite Environments.

Cette nouvelle mouture permet aux développeurs utilisant le plugin Vite de Cloudflare de faire tourner leur environnement local avec workerd, le runtime open source de Cloudflare Workers. Une intégration technique qui facilite considérablement l’accès aux services comme Durable Objects et D1 dès la phase de développement.

Un double pari sur l’avenir

Avec Human Native, l’acquisition d’Astro dessine les contours d’une stratégie ambitieuse : contrôler l’ensemble du cycle de vie du contenu web, de sa création à sa monétisation dans l’écosystème de l’IA générative.

Cloudflare défie frontalement Vercel et Netlify, deux acteurs qui ont massivement investi dans leurs propres écosystèmes de développeurs. La bataille ne se joue plus uniquement sur les performances d’infrastructure, mais sur la capacité à offrir une expérience développeur complète et intégrée.

Reste une question cruciale : Cloudflare saura-t-il maintenir l’agilité et l’esprit innovant qui ont fait le succès d’Astro tout en l’intégrant dans son infrastructure mondiale ? Les prochains mois nous le diront.

The post Cloudflare mise gros sur Astro appeared first on Silicon.fr.

  •  

OpenAI insère la publicité dans ChatGPT

L’annonce a mis fin à des mois de spéculations : OpenAI va tester l’insertion de publicités dans ChatGPT dès les prochaines semaines.

La nouvelle, officialisée le 16 janvier par Sam Altman, marque un virage à 180 degrés pour le patron d’OpenAI qui déclarait encore en 2024 qu’il « détestait » la publicité et trouvait l’idée de la combiner avec l’IA « particulièrement dérangeante ».

La réalité économique a eu raison des réticences… Avec 800 millions d’utilisateurs mensuels mais seulement 5% d’abonnés payants, OpenAI affiche des pertes cumulées dépassant 13,5 milliards $ au premier semestre 2025. Les projections internes tablent même sur 74 milliards de déficit opérationnel en 2028, avant un hypothétique retour à la rentabilité en 2030.

Un modèle publicitaire sous haute surveillance

Les publicités, baptisées « contenus sponsorisés », apparaîtront au bas des réponses de ChatGPT pour les utilisateurs américains de la version gratuite et de l’abonnement ChatGPT Go, récemment lancé à 8 dollars par mois. OpenAI promet que ces annonces seront clairement identifiées et séparées des réponses principales, sans jamais influencer le contenu généré par l’intelligence artificielle.

« Les réponses de ChatGPT ne seront jamais influencées par la publicité », a martelé Fidji Simo, directrice des applications chez OpenAI, dans un communiqué. L’ancienne dirigeante de Meta et d’Instacart, recrutée pour piloter cette stratégie de monétisation, insiste sur la protection de la confidentialité : aucune donnée utilisateur ne sera vendue aux annonceurs, et les mineurs ne verront aucune publicité.

OpenAI a également défini des zones d’exclusion strictes. Les annonces ne s’afficheront pas sur des sujets sensibles comme la santé, la santé mentale ou la politique. Les utilisateurs pourront désactiver la personnalisation publicitaire, supprimer leurs données de ciblage et masquer les annonces avec un système de feedback.

Le pari risqué de la publicité conversationnelle

Ce basculement vers la publicité place OpenAI en concurrence frontale avec Google et Meta sur un nouveau terrain : celui de la publicité native dans l’IA.

Google vient d’autoriser l’insertion d’offres sponsorisées dans son AI Mode, tandis que Meta utilise désormais les interactions avec son chatbot pour affiner le ciblage publicitaire.

Selon les projections d’eMarketer, le marché américain de la publicité pilotée par l’IA devrait bondir de 1,1 milliard $ en 2025 à 26 milliards en 2029. Pour OpenAI, l’enjeu est considérable : les documents internes évoquent 1 milliard $de revenus publicitaires dès 2026, pour atteindre 29 milliards en 2029, soit 20% du chiffre d’affaires total.

Reste que le modèle de la publicité conversationnelle n’a rien d’évident. Perplexity, concurrent d’OpenAI, a dû récemment suspendre l’accueil de nouveaux annonceurs après des difficultés d’intégration. Les utilisateurs, habitués à une expérience sans publicité, pourraient manifester leur mécontentement si la qualité des réponses venait à se dégrader.

Des révélations de The Information en décembre ont d’ailleurs semé le trouble : des employés auraient évoqué en interne la possibilité de donner un « traitement préférentiel » aux contenus sponsorisés dans les réponses du chatbot. Une pratique qu’OpenAI s’est empressée de démentir, mais qui illustre la zone grise entre recommandation et promotion commerciale.

Un équilibre fragile entre croissance et confiance

L’introduction de la publicité soulève aussi des questions éthiques et réglementaires. En Europe, le RGPD et la directive sur les services numériques (DSA) imposent une transparence stricte en matière publicitaire. La frontière entre conseil personnalisé et manipulation commerciale pourrait rapidement devenir un terrain miné, surtout dans un outil utilisé pour des conversations parfois intimes.

Les abonnés premium (Plus à 20 dollars, Pro à 200 dollars, ainsi que les offres Team et Enterprise) resteront à l’abri de la publicité. Une stratégie classique de différenciation qui pourrait inciter les utilisateurs gratuits à basculer vers un abonnement payant pour retrouver une expérience originelle.

Illustration : © OpenAI

The post OpenAI insère la publicité dans ChatGPT appeared first on Silicon.fr.

  •  

Pénurie de mémoire vive : le GPU le plus abordable de Nvidia pour le 4K en péril

Le marché des cartes graphiques fait face à une crise sans précédent début 2026. Les constructeurs rencontrent des difficultés croissantes pour maintenir la production de modèles équipés de 16 Go de VRAM. La pénurie mondiale de mémoire, exacerbée par la demande des centres de données d’intelligence artificielle, frappe désormais les joueurs PC. Alors que les ... Lire plus

L'article Pénurie de mémoire vive : le GPU le plus abordable de Nvidia pour le 4K en péril est apparu en premier sur Fredzone.
  •  

News Corp intègre l’intelligence artificielle dans ses rédactions via un partenariat stratégique

L’empire médiatique de Rupert Murdoch vient de conclure un accord majeur avec Symbolic.ai, startup relativement discrète jusqu’alors. Ce rapprochement marque une évolution significative dans l’adoption de l’IA par les groupes de presse, passant du stade expérimental à une intégration opérationnelle concrète. News Corp déploiera la plateforme technologique de Symbolic au sein de Dow Jones Newswires, ... Lire plus

L'article News Corp intègre l’intelligence artificielle dans ses rédactions via un partenariat stratégique est apparu en premier sur Fredzone.
  •  

Cloudflare rachète Human Native, une marketplace de données IA

Cloudflare rachète  Human Native, une place de marché de données pour l’IA, pour structurer un nouveau modèle économique entre créateurs de contenus et développeurs de modèles génératifs.

Avec cette opération, dont le montant n’est pas communiqué, Cloudflare entend se positionner au cœur des flux de données qui alimentent l’IA tout en répondant aux tensions croissantes autour de la rémunération et du contrôle des contenus en ligne.

Cloudflare présente Human Native comme une marketplace destinée à connecter créateurs, éditeurs et développeurs d’IA autour de données « prêtes à l’emploi » pour l’entraînement et l’inférence. L’objectif affiché est de rendre plus simple et plus rapide la découverte, l’achat et l’accès à des contenus fiables, tout en offrant aux ayants droit des mécanismes transparents de prix et de rémunération.

Fondée en 2024, Human Native revendique une mission centrée sur une relation plus équitable et transparente entre créateurs de contenu et entreprises d’IA. La start-up s’appuie sur une équipe issue d’acteurs comme DeepMind, Google, Figma ou Bloomberg, avec une forte culture croisée tech–médias.

De la « Napster era » de l’IA à un modèle régulé

Pour James Smith, cofondateur et CEO de Human Native, l’ambition est de « sortir l’IA générative de son ère Napster », en garantissant contrôle, compensation et crédit aux créateurs lorsque leurs œuvres servent à entraîner des systèmes d’IA. Ce discours s’inscrit dans un climat de conflit croissant entre éditeurs, plateformes et fournisseurs de modèles, accusés de s’appuyer sur du scraping massif sans cadre contractuel clair.

Cloudflare avait lancé des outils permettant aux éditeurs de mieux contrôler quels robots peuvent accéder à leurs contenus et de signaler leurs préférences d’utilisation via des mécanismes comme Content Signals.

L’acquisition de Human Native apparaît comme l’étape suivante : passer de la simple gestion d’accès au contenu à une monétisation structurée à l’échelle Internet.

La stratégie de Cloudflare dans l’IA

Historiquement positionné sur la performance web, la sécurité et le « connectivity cloud », Cloudflare se rapproche de plus en plus des couches applicatives liées à l’IA. En s’emparant d’une marketplace de données, l’entreprise se place en intermédiaire critique entre les détenteurs de contenu et les équipes IA, un rôle potentiellement aussi stratégique que celui de fournisseur d’infrastructure.

Pour les créateurs et les éditeurs, l’intérêt de Human Native réside dans la promesse de conserver le contrôle sur les usages tout en ouvrant un canal de revenus dédié à l’IA. La marketplace doit leur permettre de décider si leurs contenus sont accessibles, dans quelles conditions, et à quel prix, en remplaçant une logique de scraping par une logique de licence.

Pour les développeurs d’IA, l’enjeu est l’accès à des corpus fiables, traçables et juridiquement sécurisés, dans un contexte où le risque de litiges sur les données d’entraînement augmente. En centralisant découverte, négociation et flux de paiement, Cloudflare espère réduire la friction d’accès aux données tout en répondant aux attentes des régulateurs et des ayants droit.

Intégration aux outils de contrôle d’accès

Cloudflare prévoit d’intégrer progressivement les technologies et produits de Human Native à ses offres existantes. Cette fusion s’appuie sur des solutions comme AI Crawl Control, Pay Per Crawl et l’AI Index, afin de transformer des contenus non structurés en données prêtes pour l’entraînement et l’inférence des modèles IA.

Human Native complétera les mécanismes de Cloudflare permettant aux éditeurs de décider qui accède à leurs contenus via des bots IA. Les technologies de la startup transformeront les données multimédias en formats indexables et licenciables, intégrés à Pay Per Crawl pour des paiements automatisés lors de l’accès.

Cloudflare accélérera son AI Index, un système Pub/Sub où les sites publient des mises à jour structurées en temps réel, évitant les crawls coûteux et risqués. Human Native fournira les outils pour structurer et valoriser ces flux, rendant les données traçables et monétisables pour les développeurs IA.

L’acquisition soutiendra le protocole x402 et la x402 Foundation (avec Coinbase), pour des transactions machine-to-machine fluides. Les créateurs fixeront prix et conditions d’usage, intégrés aux services Cloudflare comme Workers et AI Gateway, créant un marché unifié de données IA.

The post Cloudflare rachète Human Native, une marketplace de données IA appeared first on Silicon.fr.

  •  

OpenAI : sa transformation contestée par Elon Musk ira en justice

Le bras de fer juridique entre Elon Musk et OpenAI vient de prendre un tour décisif. Ce 15 janvier, une juge fédérale d’Oakland a rejeté les demandes de rejet formulées par OpenAI et Microsoft, ouvrant la voie à un procès devant jury prévu fin avril.

Au cœur du litige : l’accusation selon laquelle l’inventeur de ChatGPT aurait trahi sa mission originelle en tant qu’organisation caritative.

Les origines du conflit

Elon Musk, qui a contribué au lancement d’OpenAI aux côtés de Sam Altman en 2015, lui reproche d’avoir abandonné son statut d’organisation à but non lucratif après avoir reçu des milliards de dollars de Microsoft. Et conteste la transformation d’OpenAI en société commerciale.

Dans sa décision, la juge Yvonne Gonzalez Rogers a refusé d’écarter l’accusation selon laquelle OpenAI aurait violé sa promesse de fonctionner comme une fondation caritative. Selon Elon Musk, ses contributions de 38 millions $  avaient un objectif caritatif spécifique, assorti de deux conditions fondamentales : qu’OpenAI reste open source et demeure une organisation à but non lucratif.

Des communications internes compromettantes

Selon Bloomberg, la magistrate s’est appuyée sur des échanges internes datant de 2017 pour maintenir les accusations de fraude. En septembre de cette année-là, Shivon Zilis, membre du conseil d’administration, avait indiqué à Elon Musk que Greg Brockman, cofondateur d’OpenAI, souhaitait poursuivre avec la structure à but non lucratif.

Deux mois plus tard, dans une note privée, Brockman écrivait pourtant : « Je ne peux pas dire que nous sommes engagés envers l’organisation à but non lucratif. Je ne veux pas dire que nous sommes engagés. Si dans trois mois nous passons en b-corp, ce sera un mensonge. »

Pour Marc Toberoff, l’avocat de Elon Musk, cette décision confirme « qu’il existe des preuves substantielles que les dirigeants d’OpenAI ont fait sciemment de fausses assurances à M. Musk concernant sa mission caritative, qu’ils n’ont jamais honorée au profit de leur enrichissement personnel. »

Microsoft également visée

La juge a estimé qu’il appartiendra au jury de déterminer si Microsoft a aidé OpenAI à manquer à ses responsabilités envers ses donateurs. Elle a relevé que Elon Musk avait identifié « des preuves considérables soulevant une question de fait contestable selon laquelle Microsoft avait une connaissance réelle allant au-delà d’un vague soupçon d’actes répréhensibles.»

En revanche, la juge  a rejeté l’allégation selon laquelle Microsoft se serait enrichie « injustement » aux dépens de Musk, faute de relation contractuelle entre les deux parties.

OpenAI maintient sa position

De son côté, OpenAI dénonce une procédure sans fondement. « La plainte de M. Musk continue d’être sans fondement et fait partie de son modèle continu de harcèlement », a déclaré l’entreprise dans un communiqué «.Nous avons hâte de le démontrer lors du procès. »

Dans le cadre de sa restructuration intervenue en octobre 2025, Microsoft a reçu une participation de 27% dans le cadre d’une transition qui maintient l’organisme à but non lucratif d’OpenAI en contrôle de ses opérations commerciales.

The post OpenAI : sa transformation contestée par Elon Musk ira en justice appeared first on Silicon.fr.

  •  

IA générative : Wikipedia fait enfin passer les chatbots à la caisse

L’ère de la gratuité totale semble révolue pour les leaders de l’IA. Après les accords passés avec certains groupes de médias (d’autres ont engagé des procédures judiciaires), c’est au tour de la plus grande encyclopédie collaborative de monétiser ses millions d’articles.

A l’occasion de ses 25 ans, Wikipedia vient en effet de signer, via sa maison mère la Wikimedia Foundation, des accords commerciaux avec Microsoft, Meta et Amazon, rejoignant ainsi Google, déjà signataire d’un accord depuis 2022.

Des acteurs de l’IA comme Perplexity et le français Mistral AI ont également été enrôlés dans ce dispositif qui redéfinit les règles du jeu entre communs numériques et industrie de l’intelligence artificielle.

Le montant des accords n’est pas communiqué.

Une manne de données devenue indispensable

Les chiffres parlent d’eux-mêmes : 65 millions d’articles répartis dans plus de 300 langues. Wikipedia s’est imposée comme la colonne vertébrale de l’entraînement des modèles d’IA générative. Chaque chatbot, chaque assistant virtuel développé par les mastodontes technologiques puise abondamment dans ce gigantesque corpus de connaissances structurées et vérifiées.

Mais cette exploitation massive a un coût. Le scraping intensif des contenus par les systèmes d’IA a fait exploser la demande sur les serveurs de la fondation, provoquant une hausse vertigineuse des dépenses d’infrastructure.  « Wikipedia est un composant critique du travail de ces entreprises technologiques, elles doivent trouver comment le soutenir financièrement », martèle Lane Becker, président de Wikimedia Enterprise, la branche commerciale de la fondation.

Un modèle économique en pleine mutation

Face à cette situation, Wikimedia a créé une offre sur mesure : Wikimedia Enterprise. Cette plateforme commerciale propose un accès structuré et haut débit aux données de l’encyclopédie via des API payantes, avec des garanties de disponibilité pouvant atteindre 99% et des mises à jour en temps quasi réel.

Wikipedia reste gratuite pour le grand public et les usages non commerciaux, mais les exploitations industrielles doivent contribuer. Un principe que Tim Frank, vice-président de Microsoft, semble avoir intégré : « Nous aidons à créer un écosystème de contenu durable pour l’internet de l’IA, où les contributeurs sont valorisés.»

Les revenus générés restent pour l’instant modestes. En 2023, le contrat avec Google avait rapporté environ 3,2 millions $ de revenus annuels récurrents, soit 1,7% des 185,3 millions de revenus totaux de la fondation. Mais la multiplication des partenaires laisse augurer une montée en puissance significative.

Cette stratégie pourrait bien inspirer d’autres plateformes de connaissances ouvertes confrontées aux mêmes défis. La fondation franchit par ailleurs un nouveau cap avec la nomination de Bernadette Meehan, ancienne ambassadrice des États-Unis au Chili, au poste de directrice générale à compter du 20 janvier. Un profil diplomatique pour naviguer dans ces eaux nouvelles.

Illustration : © DR

The post IA générative : Wikipedia fait enfin passer les chatbots à la caisse appeared first on Silicon.fr.

  •  

ChatGPT Translate - OpenAI veut détrôner Google Traduction

Bon, vous connaissez tous Google Traduction, cette application qu'on installe par réflexe dès qu'on pose le pied dans un pays étranger (ou quand on essaie de comprendre une notice de montage suédoise).

Hé bien, il semblerait qu'OpenAI ait décidé de venir sérieusement grattouiller dans les plates-bandes de Google avec le lancement de ChatGPT Translate , un outil de traduction dédié qui ne fait pas les choses à moitié.

On va pas se mentir, la traduction automatique, c'est souvent la foire aux saucisses dès qu'on sort des sentiers battus... On a tous en tête ces traductions pourries qui transforment un compliment en insulte diplomatique. C'est d'ailleurs pour ça que certains utilisent des extensions comme YouTube Anti-Translate pour éviter les massacres linguistiques sur nos vidéos préférées.

Mais là, ChatGPT Translate essaie d'apporter un truc en plus qui est : ✨ la personnalisation ✨, lol. Grâce à ça, au-delà de simplement convertir des mots, l'outil vous propose, d'un simple clic, de reformuler le résultat.

Vous voulez que ça sonne plus "business-formal" ? Hop, c'est fait. Vous préférez un ton simplifié pour expliquer un truc à un gamin de 5 ans ? Nickel, l'IA s'adapte. C'est ce côté "malléable" qui manque cruellement aux solutions classiques... Par exemple, moi dans Deepl, j'ai pas ça... Et comme c'est difficile de jauger si un texte dans une langue étrangère est trop familier ou pas, çe me bloque un peu, c'est vrai.

L'interface minimaliste de ChatGPT Translate qui mise tout sur la personnalisation ( Source )

Pour le moment, l'interface est ultra minimaliste (deux champs de texte, paf, on ne se prend pas la tête) et supporte plus de 50 langues. On peut taper son texte, causer dans le micro, et même si l'option d'upload d'images est mentionnée, elle semble encore un peu timide sur desktop. On est donc encore très loin des usines à gaz comme Comic Translate qui traduisent carrément vos mangas en temps réel avec de l'IA, mais c'est un bon début.

Et voilà comment OpenAI mise une fois encore tout sur son "muscle" cloud magique pour offrir des traductions qui ne ressemblent pas à des phrases sorties d'un vieux dictionnaire poussiéreux. C'est un peu le même combat qu'on a vu à l'époque avec le traducteur de Microsoft quand tout le monde essayait de détrôner le roi Google. Après c'est bien pour nous, ça nous fait des trucs nouveaux à tester et peut-être que ça nous plaira.

En tout cas, si vous voulez tester ça, c'est déjà dispo sur le web et ça devrait s'intégrer de plus en plus dans nos smartphones à l'avenir, j'imagine...

Mais gardez quand même un œil sur le résultat au cas où l'IA déciderait de traduire un "Cordialement," de fin de mail par "Die motherfucker,"... On n'est jamais trop prudent !

Source

  •  

VMware assigné en référé par la Cnam

Face à VMware, la Cnam (Caisse nationale d’assurance maladie) a fini par saisir la justice.

Il y a quelques semaines, l’établissement public est allé en référé. Objectif : obtenir un délai pour convertir des jetons HPP (Hybrid Purchasing Program)* en licences perpétuelles.

Ces jetons avaient été acquis à l’été 2021, sur le fondement d’un accord-cadre conclu entre le GIP RESAH (Réseau des acheteurs hospitaliers) et Computacenter. Son objet : la fourniture de logiciels, dont ceux de VMware.

Le 22 avril 2024, Broadcom avait informé la Cnam que la conversion des jetons HPP ne serait plus possible après le 30 avril 2024.

Le 26 septembre 2025, la Cnam avait mis Computacenter et Broadcom en demeure de rétablir cette possibilité jusqu’au 20 décembre 2025. Elle avait essuyé un refus, au motif que le modèle de souscription alors en vigueur ne le permettait pas.

La Cnam a invoqué sa mission de service public

Le 2 décembre, la Cnam avait sollicité le juge des référés pour obtenir ce rétablissement, sous astreinte de 50 000 € par jour. Fondement invoqué : l’article L. 521-3 du Code de justice administrative. Lequel dit, en substance, que le juge des référés peut, en cas d’urgence, ordonner toute mesure utile, même en l’absence d’une décision administrative préalable.

D’après la Cnam, la condition d’urgence était remplie dès lors que :

  • ces jetons devaient être convertis avant le 20 décembre 2025 ;
  • à défaut, elle perdrait son droit contractuel à la conversion ;
  • l’acquisition de licences perpétuelles revêtait une importance particulière pour assurer sa mission de service public, l’ensemble de son SI reposant sur les technos Vmware.

La Cnam prétendait ne pas disposer des moyens suffisants pour contraindre Broadcom… et considérait par là même que la mesure demandée était utile.

Broadcom a fini par accéder à la demande. Et le 23 décembre, la Cnam s’est désistée de sa requête.

* Le programme HPP se destinait aux clients souhaitant migrer vers le cloud tout en conservant leur infrastructure privée. Il combinait l’EPP (Enterprise Purchasing Program) et le SPP (Subscription Program) en un modèle transactionnel. Chaque euro dépensé pouvait, dans certaines limites, être réparti entre, d’un côté, licences perpétuelles + services/support, et de l’autre, services sur abonnements.

Illustration générée par IA

The post VMware assigné en référé par la Cnam appeared first on Silicon.fr.

  •  

RGPD : la Cnil inflige une amende de 42 millions € à Free et Free Mobile

L’autorité de régulation frappe fort en ce début d’année. Suite à une intrusion massive survenue en octobre 2024 dans les systèmes d’information du groupe Iliad, la Commission nationale de l’informatique et des libertés (CNIL) inflige une amende d’un montant total de 42 millions € aux opérateurs Free Mobile (27 millions € ) et Free (15 millions €).
Retour sur les faits. En octobre 2024, un attaquant s’infiltre dans le système d’information des deux sociétés compromettant les données personnelles de 24 millions de contrats d’abonnés. Les données exposées incluaient notamment des IBAN pour les clients disposant d’abonnements auprès des deux entités simultanément.

L’ampleur de l’incident suscite plus de 2 500 plaintes d’abonnés et déclenche un contrôle approfondi de la CNIL qui identifie plusieurs manquements graves au Règlement général sur la protection des données (RGPD), chaque société étant tenue responsable du traitement des données de ses propres clients.

Des failles de sécurité élémentaires

La formation restreinte de la CNIL, organe compétent pour prononcer les sanctions, constate aussi l’absence de mesures de sécurité fondamentales qui auraient pu compliquer l’attaque. Les enquêteurs relèvent notamment que la procédure d’authentification pour accéder aux réseaux privés virtuels (VPN) des deux sociétés, utilisés pour le télétravail des employés, présentait des faiblesses importantes en termes de robustesse.

Par ailleurs, les dispositifs de détection des comportements anormaux sur les systèmes d’information se sont révélés inefficaces. La CNIL a jugé que ces mesures n’étaient pas adaptées au volume et à la sensibilité des données traitées par les deux opérateurs.

La commission reconnait cependant qu’ils ont renforcé leur niveau de sécurité en cours de procédure et leur impose d’achever la mise en œuvre de ces nouvelles mesures sous trois mois.

Une communication insuffisante auprès des victimes

Le régulateur pointe également du doigt les lacunes dans la communication auprès des clients. Si Free et Free Mobile ont déployé un dispositif d’information à deux niveaux (courriel initial puis numéro vert et service dédié), le courriel envoyé aux abonnés ne contenait pas toutes les informations obligatoires prévues par l’article 34 du RGPD.

Selon la CNIL, ces omissions empêchaient les victimes de comprendre directement les conséquences de la violation et les mesures de protection qu’elles pouvaient adopter pour limiter les risques.

Free Mobile épinglée pour conservation excessive de données

Un troisième manquement est retenu spécifiquement contre Free Mobile concernant la durée de conservation des données. Au moment du contrôle, l’opérateur n’avait pas mis en place de procédures permettant de trier et supprimer les données des anciens abonnés une fois leur conservation devenue inutile.

La CNIL a établi que Free Mobile conservait des millions de données d’abonnés sans justification pendant des durées excessives, en violation de l’article 5 du RGPD. L’opérateur a depuis initié un tri pour ne conserver que les données nécessaires au respect des obligations comptables pendant dix ans, et a supprimé une partie des données conservées de manière excessive. La société dispose de six mois pour finaliser cette opération de purge.

Image : © Cnil 

The post RGPD : la Cnil inflige une amende de 42 millions € à Free et Free Mobile appeared first on Silicon.fr.

  •  

Mercedes met le holà sur le Niveau 3 - Adieu la sieste au volant !

Semaine de merde hein ? On nous promettait le futur, les mains dans les poches et le regard dans le vide, et là, patatras ! Mercedes vient de décider de mettre un gros coup de frein sur son fameux "Drive Pilot" de niveau 3.

Pour ceux qui ne suivent pas tout ce bazar autour de la conduite autonome, sachez que le Niveau 3 (ou "conduite automatisée conditionnelle" pour les intimes), c’était la promesse de pouvoir lâcher le volant et SURTOUT de ne plus regarder la route quand on est coincé dans les bouchons sur l’autoroute. En Allemagne, Mercedes avait même réussi à faire homologuer le machin jusqu'à 95 km/h, ce qui en faisait le système certifié le plus rapide du monde.

C'est vrai que contrairement au Niveau 2 où vous deviez rester au taquet, le Niveau 3 permet théoriquement de détourner les yeux de la route, même si vous deviez quand même rester capable de reprendre les commandes en quelques secondes si la voiture panique.

Moi qui me voyais déjà en train de déplier mon journal papier (oui, je sais, je suis vintage), de faire une petite partie de Uno avec mon passager imaginaire ou même de me lancer dans une session intensive de blogging sur le grand écran du tableau de bord... Et bien c’est râpé. On va devoir continuer à fixer le pare-choc de la Renault Clio de devant comme des demeurés.

Officiellement, Mercedes nous explique que la demande est "modérée" et que les coûts de développement sont très couteux... en gros, ça coûte un bras à concevoir et personne n'a envie de payer le prix d'un petit appartement pour avoir le droit de lire ses mails en roulant à 60 km/h. La nouvelle Classe S, qui devait être le fer de lance de ce machin, sortira donc fin janvier sans cette option. Pffff.

Et ne me parlez pas de Tesla ! Parce que là, on touche le fond. C'est quand même un constructeur qui promet du niveau 5 (le truc où la bagnole vient vous chercher toute seule pendant que vous dormez) depuis littéralement dix ans pour au final propose un système "Full Self-Driving" toujours à la ramasse et nécessitant que vous gardiez les mains sur le volant sous peine de finir dans un mur. Clairement, Tesla c'est déjà pas ouf au niveau des finitions mais alors quand on commence à parler des promesses non tenues d’Elon, y'a de quoi finir en PLS.

Mais bon, ne désespérez pas totalement car si vous avez une bagnole récente (genre une Ioniq 5 ou une EV6), vous avez déjà accès à un Niveau 2 qui tient la route et qui vous soulage bien sur les longs trajets. Et pour ceux qui traînent encore de vieilles casseroles sans cerveau électronique, il existe une solution qui s'appelle OpenPilot avec le hardware de chez Comma.ai .

Si la législation dans votre pays l'autorise, vous installez ce petit bazar sur votre pare-brise, vous le branchez sur le bus CAN de votre voiture, et hop, vous avez un système de conduite autonome qui envoie bien plus du bois que la plupart des options constructeurs hors de prix. George Hotz (le génie derrière le hack de l'iPhone et de la PS3) a vraiment créé un truc ouvert, communautaire, et qui fonctionne vraiment bien sur des centaines de modèles...

Bref, le futur où on pourra se faire une raclette au volant n'est pas encore gagné, mais on s'en rapproche doucement par les chemins de traverse du logiciel libre.

En attendant, gardez quand même un œil sur la route et les mains sur le volant, ça évitera de froisser de la tôle pour une notification TikTok de travers. Et comme d'hab, mon meilleur conseil en termes de sécurité routière c'est méfiez-vous des semeurs de mort qui roulent en Volkswagen ^^ !

Source

  •  

Souveraineté numérique de l’UE : état des lieux et enjeux stratégiques

Avec 83 % des dépenses IT des grandes entreprises captées par des fournisseurs étrangers et une part de marché européenne marginale sur la plupart des segments critiques (OS, cloud, IA générative), l’UE fait face à des risques majeurs de souveraineté et de sécurité.

Ce dossier décrypte les données chiffrées de cette dépendance, analyse la matrice des risques économiques et géopolitiques associés, et illustre concrètement ces enjeux à travers le cas du secteur de l’énergie, où la cybersécurité repose massivement sur des solutions non européennes.

> Dépendances numériques de l’UE : une matrice des risques
L’étude commandée par le Parlement européen propose une matrice d’évaluation du « risque de souveraineté », sur trois axes (contrôle juridique, autonomie technique, indépendance stratégique) comportant chacun trois dimensions

> Les dépendances numériques de l’UE chiffrées, GenAI comprise
Les grandes entreprises européennes orientent près 83 % de leurs budgets IT vers des acteurs américains.

> Dépendances numériques : l’exemple de la cyber dans le secteur de l’énergie
La dépendance de l’UE à des logiciels étrangers trouve une illustration avec les solutions cyber déployées dans le secteur de l’énergie.

The post Souveraineté numérique de l’UE : état des lieux et enjeux stratégiques appeared first on Silicon.fr.

  •  
❌