Le marché de la bière bascule : Heineken revoit sa production et va supprimer des milliers d’emplois
Le géant du marché illustre les difficultés de ce marché.



C’est un coup d’accélérateur dans la bataille de l’IA européenne. Mistral AI, valorisée à près de 12 milliards €, annonce un investissement colossal de 1,2 milliard € en partenariat avec l’opérateur suédois EcoDataCenter. Objectif : ériger à Borlänge, au cœur de la Suède, une infrastructure de calcul de nouvelle génération dédiée à l’entraînement et au déploiement de ses modèles d’IA.
Pourquoi la Suède ? La réponse tient autant à la géographie qu’à la géopolitique. Le royaume scandinave offre un cocktail d’avantages difficilement égalable : une électricité 100% renouvelable issue de l’hydroélectrique et de l’éolien, des températures favorables au refroidissement des serveurs, et des coûts énergétiques compétitifs.
Le datacenter, dont l’ouverture est prévue pour 2027, accueillera les GPU NVIDIA Vera Rubin de dernière génération et promet des performances de pointe avec un PUE (Power Usage Effectiveness) parmi les plus bas du marché. EcoDataCenter, qui assurera la conception, la construction et l’exploitation du site, capitalise sur son expertise reconnue en infrastructures haute densité optimisées pour le calcul intensif.
Au-delà des aspects techniques, c’est un projet éminemment politique que porte Arthur Mensch, CEO et cofondateur de Mistral AI. « C’est un pas concret vers des capacités indépendantes en Europe », affirme-t-il.
Le partenariat vise à constituer une pile technologique entièrement européenne, du silicium aux algorithmes. Les données seront traitées et stockées localement, sous le cadre juridique de l’Union européenne, avec l’ambition affichée de proposer un « cloud IA européen » aux entreprises, administrations publiques et centres de recherche.
Pour la Suède, ce projet confirme son statut de hub européen des infrastructures numériques avancées, aux côtés d’autres projets HPC (High Performance Computing) déjà déployés dans le pays.
The post Mistral AI investit 1,2 milliard € dans un datacenter IA appeared first on Silicon.fr.

Le réveil est un peu brutal pour les Entreprises de Services Numériques (ESN) françaises. Selon le dernier baromètre réalisé par la banque d’affaires Crescendo Finance en partenariat avec le cabinet PAC, le secteur entre dans une phase de normalisation après des années de surchauffe.
Après un pic d’activité M&A (fusions-acquisitions) en 2022 avec 73 opérations recensées, le marché montre des signes de fatigue : la croissance des services IT en France devrait même se contracter de 2,1% en 2025.
Le temps où les vendeurs dictaient leurs conditions semble s’éloigner. Les multiples d’EBITDA *, qui avaient grimpé jusqu’à 13,9x en 2022 pour les acquéreurs stratégiques, sont retombés à 9,2x en 2024. « Le contexte économique affecte de façon symétrique les multiples », tempère l’étude, notant que pour la première fois depuis 2021, la valorisation des ESN françaises est repassée légèrement sous l’indice Argos des PME non cotées.
Pourtant, cette moyenne cache de profondes disparités. C’est un marché à deux vitesses : d’un côté, l’infogérance classique, dont les multiples plafonnent péniblement à 6,3x EBITDA. De l’autre, les « chouchous » des investisseurs : la cybersécurité et la Data/IA, qui continuent d’afficher des valorisations insolentes, dépassant parfois les 15x l’EBITDA pour les cibles les plus pointues.
Si le marché global ronronne, l’IA générative (IAGen) agit comme un booster de croissance. PAC estime que les dépenses externes liées à l’IAGen en France vont littéralement exploser, passant de 425 millions € en 2024 à 3,2 milliards € dès 2028.
« 72% des entreprises font de l’adoption de l’IA générative une priorité absolue», souligne l’étude. Cette « frénésie » pousse les grands prédateurs du secteur à sortir le carnet de chèques pour ne pas rater le train de l’IA agentique.
Accenture et Capgemini sont en première ligne, avec des budgets d’investissement se comptant en milliards de dollars pour renforcer leurs compétences via des acquisitions ciblées.
Le paysage des transactions reste dominé à 75% par les « corporates » (les ESN elles-mêmes), qui privilégient les petites cibles de moins de 15 millions € de chiffre d’affaires pour muscler leurs expertises locales. Les fonds d’investissement, bien que représentant seulement 25% des volumes, jouent les arbitres sur les dossiers plus matures : 47% de leurs jetons sont misés sur des entreprises réalisant plus de 50 millions € de CA.
Pour 2025, les experts prévoient une stabilisation. L’assouplissement des conditions de financement et la nécessité impérieuse de souveraineté numérique devraient soutenir un volume d’opérations honorable. Mais pour séduire les acheteurs, il faudra désormais plus qu’une simple croissance organique : la récurrence des revenus (modèle SaaS) et la maîtrise de la data sont devenues les nouveaux juges de paix de la valorisation.
*EBITDA est l’abréviation de « bénéfice avant intérêts, impôts, dépréciation et amortissement ».
The post ESN : la fin de l’âge d’or des valorisations, l’IA générative comme nouvel eldorado appeared first on Silicon.fr.

La Commission européenne n’ira pas plus loin dans l’examen du dossier Google-Wiz : elle a validé l’acquisition sans condition.
Bruxelles ne nie pas le risque de remise en cause de la neutralité de l’entreprise israélienne. Mais considère que les clients pourront, le cas échéant, accéder à des solutions alternatives « crédibles » de sécurité cloud.
Balayé également l’effet « cheval de Troie » qu’avait notamment dénoncé le CISPE. Certes, l’opération procurera à Google des données concernant les clouds concurrents. Mais elles ne sont « pas commercialement sensibles », en plus d’être généralement accessibles à d’autres fournisseurs de logiciels de sécurité.
Google franchit là un autre étape importante après le feu vert que les États-Unis lui ont donné en novembre 2025. Reste une enquête en Australie, avec une décision prévue d’ici au 23 février 2026.
Wiz était précieux par son indépendance, déplore un collectif d’organisations de la société civile basées en Allemagne (Rebalance Now), aux Pays-Bas (SOMO), au Royaume-Uni (Article 19, Balanced Economy Project) et aux États-Unis (Open Markets Institute).
La Commission européenne sait que le contrôle d’une couche stratégique peut être mis à profit pour consolider une position sur des marchés annexes, regrettent ces organisations. Partant, il ne fallait pas valider sur la base de parts de marché* et de considérations tarifaires, poursuivent-elles.
Il y a quelques semaines, dans la perspective de l’examen du projet d’acquisition, une des membres de Rebalance Now avait copublié un article intitulé « L’empire caché de Google ». Elle y postulait que Google s’était imposé comme une arme géopolitique pour les USA, par là même susceptibles de préférer en renforcer le pouvoir plutôt que de le contrôler.
L’article pointait les risques d’intégration verticale. Et établissait, à ce sujet, un parallèle avec l’acquisition de DoubleClick – que l’UE avait validée en 2008. Il insistait aussi sur l’ancrage profond de Google dans l’écosystème start-up/innovation (plus de 6000 sociétés acquises ou soutenues dans l’économie numérique et au-delà). Et sur sa croissance supérieure à celle d’Amazon et de Microsoft dans le cloud d’infrastructure.
Fin 2025, Wiz a atteint le milliard de dollars de revenu anuel récurrent. Google compte s’en emparer pour 32 milliards de dollars en cash. Jusqu’ici, la plus chère de ses acquisitions fut celle de Motorola Mobility (12,5 Md$ en 2012).
* Dans ce même esprit, la Commission européenne n’a pas inclus Google dans son enquête visant à déterminer s’il faut soumettre des plates-formes cloud au DMA.
Illustration générée par IA
The post Google-Wiz : l’UE valide en balayant les craintes appeared first on Silicon.fr.

Naval Group vient d’annoncer son entrée au capital de CortAIx, l’accélérateur d’IA créé par Thales en 2024, marquant une étape stratégique dans la convergence des industries françaises de défense sur le terrain de l’IA.
L’opération, dont le montant reste confidentiel, représente 20% du capital de la division française de CortAIx. Elle s’inscrit dans un engagement pluriannuel de coopération entre les deux groupes, tant sur le volume d’activité que sur les cas d’usage. Naval Group rejoint par ailleurs le conseil d’administration de l’entité, consolidant ainsi une alliance structurante autour des technologies critiques de demain.
L’objectif affiché est de mutualiser les compétences en matière d’intelligence artificielle appliquée au combat collaboratif, aux systèmes d’aide à la décision et à la guerre électronique. Quinze ingénieurs de Naval Group rejoindront dès mars les équipes de CortAIx, qui comptent quelque 800 spécialistes répartis sur cinq sites. Un nouveau centre de recherche à Ollioules (Var) ouvrira dès mai, renforçant la proximité entre les équipes R&D des deux partenaires.
« Innover dans le secteur de la défense requiert de plus en plus d’intelligence artificielle. C’est un démultiplicateur de performance opérationnelle », souligne Éric Papin, directeur technique de Naval Group dans les Echos. De son côté, Mickael Brossard, directeur de CortAIx, évoque une « mutualisation très forte » destinée à accélérer la montée en puissance de solutions souveraines et sécurisées.
Les ingénieurs de CortAIx développent depuis deux ans des modèles d’IA destinés à des applications sensibles : capteurs du Rafale, radars de surveillance, reconnaissance faciale ou pilotage d’essaims de drones. Ces technologies opèrent à la fois dans des environnements embarqués et en data centers sécurisés, en partenariat avec des acteurs français tels que Mistral AI.
Thales et Naval Group pourront également s’appuyer sur la puissance de calcul du supercalculateur inauguré par l’Agence ministérielle pour l’intelligence artificielle de défense (Amiad), livré en 2025 par HPE et Orange, pour le traitement de données classifiées.
Cette union s’inscrit dans un contexte d’effervescence autour de l’IA de défense en France. Dassault Aviation a déjà noué un partenariat technologique avec CortAIx fin 2025, tandis que sa participation dans la start-up Harmattan AI, valorisée 1,4 milliard $, témoigne de l’émergence d’un tissu industriel compétitif.
L’État, actionnaire à 62 % de Naval Group et 27 % de Thales, joue un rôle d’amplificateur dans cette stratégie de souveraineté industrielle et numérique. L’articulation de ces champions nationaux autour de CortAIx vise à positionner la France parmi les leaders mondiaux de l’IA de défense, à l’heure où les budgets militaires européens connaissent une croissance sans précédent.
The post Naval Group et Thales accélèrent dans l’IA de défense souveraine appeared first on Silicon.fr.

Figure historique de la tech française, le fondateur de HardWare.fr et membre du directoire LDLC laisse un héritage technique inestimable.
Cet article Marc Prieur : décès du fondateur de HardWare.fr et pilier du Groupe LDLC est apparu en premier sur Linformatique.org.
Workday vient d’annoncer un changement de direction spectaculaire. Aneel Bhusri, co-fondateur de l’éditeur, reprend immédiatement les commandes en tant que CEO, remplaçant Carl Eschenbach. Une décision qui intervient après une année désastreuse en Bourse : le titre a plongé de 41% sur douze mois.
Carl Eschenbach quitte non seulement son poste de directeur général mais également son siège au conseil d’administration. Il restera néanmoins conseiller stratégique auprès de Bhusri. Son départ lui vaudra une indemnité de 3,6 millions $, assortie d’une acquisition accélérée de ses stock-options en cours.
Pour Aneel Bhusri, le retour se monnaie cher : 135 millions $ en actions, soumises à des conditions de temps et de performance, auxquels s’ajoute un salaire de base de 1,25 million $, selon les documents transmis à la SEC.
L’histoire récente de Workday ressemble à un jeu de chaises musicales. Bhusri avait co-fondé l’entreprise en 2005, exercé seul la fonction de CEO entre 2014 et 2020, avant d’accepter un partage du pouvoir. Eschenbach avait été nommé co-CEO fin 2022, aux côtés du fondateur, avant que ce dernier ne se retire en 2024.
« Nous entrons dans l’un des moments les plus décisifs de notre histoire. L’IA est une transformation plus importante que le SaaS – et elle définira la prochaine génération de leaders du marché », déclaré Aneel Bhusri dans un communiqué officiel.
Workday, spécialisé dans les logiciels de gestion des ressources humaines et autres tâches administratives, fait partie de ces éditeurs d’applications qui peinent à convaincre Wall Street à l’ère de l’intelligence artificielle. Sous la direction d’Eschenbach, l’entreprise avait affiché une nouvelle priorité à la rentabilité, annonçant des suppressions de postes et promettant d’utiliser l’IA pour rationaliser ses propres opérations.
La semaine dernière encore, Workday avait annoncé le licenciement d’environ 400 employés, soit 2% de ses effectifs de 20.600 personnes fin octobre, dans le but de mieux investir dans ses domaines prioritaires.
Le retour de Bhusri apparaît comme un pari : celui de retrouver l’ADN entrepreneurial et l’agilité technologique face aux bouleversements de l’IA. Reste à savoir si cette cure de jouvence suffira à reconquérir les investisseurs.
The post Workday : retour aux sources avec Aneel Bhusri pour redresser la barre appeared first on Silicon.fr.

Et pas l'inverse !
En effet, Discord va bientôt demander à ses utilisateurs de prouver qu'ils ont bien 18 ans pour accéder au contenu NSFW. La plateforme prévoit de déployer la vérification d'âge à l'échelle mondiale dès le mois de mars 2026. Après des tests au Royaume-Uni depuis juillet dernier puis en Australie depuis décembre, c'est TOUT le monde qui y passe. Fini le simple clic sur "j'ai plus de 18 ans" !
Y'a donc 2 options au menu. Soit vous filmez votre tronche via le SDK de Yoti, un outil d'estimation d'âge qui tourne en local sur votre smartphone où faut ouvrir et fermer la bouche devant la caméra pour vérifier que c'est bien votre vrai visage. L'évaluation se fait en local et la vidéo ne quitte jamais votre appareil, ce qui évitera les soucis de confidentialité. Soit vous envoyez une copie de votre pièce d'identité au prestataire Persona.
Le selfie a donc l'air nettement plus safe...
Le précédent prestataire utilisé par Discord, 5CA, basé aux Pays-Bas s'est d'ailleurs fait pirater en octobre dernier par un groupe qui se fait appeler Scattered Lapsus$ Hunters. Environ 70 000 photos de pièces d'identité dans la nature. Sympa. Discord assure avoir changé de crémerie depuis, mais bon, une fois que vos données sont dehors, c'est trop tard. En tant que français, on ne le sait que trop bien puisque l’État comme les entreprises privées adorent offrir nos données personnelles aux cybercriminels de tout poils.
Attention quand même, si vous êtes sur un vieux téléphone sans bonne caméra frontale, ou si la luminosité est trop faible, l'estimation d'âge de Yoti risque de foirer et vous serez obligé de passer par la pièce d'identité. Du coup, le choix se fait un peu malgré vous.
Le déploiement au Royaume Uni avait d'ailleurs donné lieu à un contournement assez drôle. Des petits malins avaient utilisé le mode photo de Death Stranding (oui, le jeu de Kojima sur PS5/PC) pour tromper le système de reconnaissance faciale de k-ID. Le système demandait d'ouvrir et fermer la bouche... sauf que dans Death Stranding, vous pouvez contrôler les expressions faciales de Sam Porter via la barre "expression du personnage".
Heureusement, la nouvelle version corrige apparemment le tir, mais le piège c'est que d'autres jeux avec des modes photo réalistes pourraient très bien marcher aussi.
Par défaut, tous les comptes basculeront donc sur une expérience "adaptée aux ados" et les serveurs et canaux marqués NSFW deviendront inaccessibles tant que vous n'avez pas prouvé votre majorité. Du coup, même si vous avez +40 ans et que vous traînez sur Discord depuis la v1.0 de 2016, faudra repasser par la case vérification... Sauf si le modèle d'inférence vous a déjà identifié comme adulte. J'y reviens.
Car oui, Discord déploie un modèle d'inférence maison qui analyse vos métadonnées pour deviner votre tranche d'âge. Les jeux Steam auxquels vous jouez, vos horaires de connexion sur l'app mobile ou desktop, votre activité sur les serveurs publics... tout passe à la moulinette. Si le modèle vous catégorise comme mineur, vous êtes bon pour une restriction automatique, même sans vérification via Yoti ou Persona. Le hic c'est qu'on ne sait pas encore comment contester si l'algo se plante. En bon adulescent, si vous jouez à Fortnite sur votre Switch à 23h un mardi soir, bon courage pour prouver que vous n'êtes pas au collège...
L'entreprise lancera aussi bientôt un "Teen Council" composé de 10 à 12 ados entre 13 et 17 ans qui la conseilleront sur la sécurité (candidatures ouvertes jusqu'au 1er mai sur discord.com).
L'entreprise assume le fait que ces changements feront fuir certains utilisateurs, mais bon, c'est la vie... La protection des mineurs passe avant la croissance.

Cloudflare a décidé d’aller plus loin avec Astro.
En septembre 2025, l’entreprise américaine avait officialisé son soutien financier à ce framework web orienté contenu statique (« zéro JavaScript par défaut »). Mi-janvier, elle a annoncé le prendre sous son aile, en absorbant la société qui l’a développé.
Astro restera sous licence MIT et continuera à accepter les contributions, avec une roadmap publique et une gouvernance ouverte, promet Cloudflare, qui utilise lui-même le framework pour son blog, sa doc développeurs et diverses landing pages.
Cette manœuvre lui donne l’occasion d’accroître l’usage de ses services par des plates-formes fondées sur Astro. Notamment Webflow Cloud et Wix Vibe, déjà hébergées sur son infrastructure.
Également mi-janvier, Cloudflare a annoncé avoir mis la main sur Human Native. Cette start-up anglaise née en 2024 a constitué une marketplace qui rapproche producteurs de contenus et développeurs d’IA. Elle source en l’occurrence des contenus qualitatifs et les structure en datasets d’entraînement.
Human Native contribuera à la transformation des outils de contrôle d’accès de Cloudflare en un marché unifié de contenus monétisables. En toile de fond, l’initiative dite « Pay per crawl ». Qui s’est déjà traduite, entre autres, par des investissements dans le protocole de paiement x402 et par le lancement de la brique AI Index. Cette dernière expose, sur les domaines Cloudflare, des ressources (API, serveur MCP, fichier LLMs.txt) auxquelles les robots IA peuvent s’abonner.
En novembre 2025, Cloudflare avait acheté Replicate. Cette start-up américaine née en 2019 avait d’abord développé Cog, un format ouvert pour conteneuriser des modèles d’IA. Elle y avait ensuite greffé une plate-forme d’inférence pour exécuter ces modèles en tant qu’API.
Conséquence de cette acquisition, le catalogue de Replicate a basculé sur Cloudflare Workers AI. Tout en y apportant des possibilités de fine-tuning et d’exécution de modèles personnalisés.
Autre acquisition réalisée en 2025 : Outerbase. C’était en avril 2025. Il s’agit aussi d’une start-up américaine (née en 2022). Elle a conçu divers outils destinés à simplifier l’exploitation des bases de données SQL par les développeurs.
Le rapprochement entre les deux sociétés avait démarré en 2024, lorsque Outerbase avait introduit la possibilité d’importer des bases de données D1. Depuis, des jonctions se sont faites avec d’autres composantes de l’offre de Cloudflare. À commencer par Durable Objects, sur lequel Outerbase a d’ailleurs construit sa propre base de données compatible SQLite.
L’offre SaaS d’Outerbase a fermé, Cloudflare en intégrant le contenu dans son dashboard et au-delà (sécurité au niveau des lignes et hooks pré-requête, notamment). La version open source reste accessible, mais il n’y a plus d’activité sur le repo.
L’acquisition précédente remonte à octobre 2024. Elle a porté sur Kivera. Cette entreprise australienne née en 2019 donnait dans la protection du cloud. Ses technologies ont enrichi l’offre SASE Cloudflare One avec de la détection inline et de la gestion des mouvements de données.
En mai 2024, Cloudflare avait bouclé une autre acquisition dans le domaine de la sécurité informatique : BastionZero.
L’offre de cette entreprise américaine née en 2017 est devenue Cloudflare Access for Infrastructure. Elle a permis d’étendre la couverture du SASE aux ressources d’infrastructure, en plus des réseaux et des applications. Tout en apportant du RDP clientless et une gestion DevOps de la sécurisation des connexions SSH.
Le temps que l’intégration soit finalisée, l’offre BastionZero « legacy » reste maintenue pour les clients existants.
En avril 2024, Baselime tombait dans le giron de Cloudflare. Cette start-up anglaise née en 2021 s’était spécialisée dans l’observabilité des environnements serverless, autour d’OpenTelemetry. Elle fut soutenue par AWS, chez qui elle avait d’ailleurs déployé son produit.
Ce dernier est aujourd’hui hébergé chez Cloudflare. Il a permis d’intégrer OpenTelemetry dans le runtime JS de Cloudflare Workers.
La première acquisition annoncée sous l’ère ChatGPT fut celle de PartyKit, également en avril 2024. La start-up anglaise, née en 2023, avait développé une plate-forme open source de déploiement d’applications collaboratives. Il s’agissait, à l’origine, d’explorer les capacités de l’offre Durable Objects en matière de conception d’expérience interactives. Et de la rendre plus accessible aux développeurs en l’exposant via des briques familières (React, Yjs…).
PartyKit reste gratuit pour un usage individuel. Il l’est aussi pour un usage commercial… si on déploie sur un compte Cloudflare.
Illustration © ArtemisDiana – Adobe Stock
The post Les acquisitions de Cloudflare sous l’ère ChatGPT appeared first on Silicon.fr.

Les régulateurs de la concurrence de l’Union européenne ont franchi ce lundi une nouvelle étape dans leur bras de fer avec Meta.
La Commission européenne a envoyé une communication des griefs au groupe américain et envisage d’imposer des mesures provisoires pour éviter un « préjudice grave et irréparable », aux concurrents, une démarche similaire à celle adoptée par l’autorité italienne de la concurrence en décembre.
« Nous devons protéger une concurrence effective dans ce domaine dynamique, ce qui signifie que nous ne pouvons pas permettre aux entreprises technologiques dominantes d’exploiter illégalement leur position pour s’octroyer un avantage déloyal », a déclaré Teresa Ribera, commissaire européenne à la concurrence, dans un communiqué.
Meta a mis en œuvre sa nouvelle politique le 15 janvier, n’autorisant que son propre assistant Meta AI sur WhatsApp conteste fermement l’intervention de Bruxelles. « Il existe de nombreuses options d’IA et les utilisateurs peuvent y accéder via les app stores, les systèmes d’exploitation, les appareils, les sites web et les partenariats industriels », a répondu un porte-parole de Meta. « La logique de la Commission suppose à tort que l’API WhatsApp Business est un canal de distribution clé pour ces chatbots. ».
La décision d’imposer ou non des mesures provisoires dépendra de la réponse de Meta et de l’exercice de ses droits de défense, a précisé l’autorité de régulation. Teresa Ribera a justifié cette démarche : « C’est pourquoi nous envisageons d’imposer rapidement des mesures provisoires à Meta, afin de préserver l’accès des concurrents à WhatsApp pendant l’enquête et d’éviter que la nouvelle politique de Meta ne nuise irrémédiablement à la concurrence en Europe. »,
Selon les règles européennes, les régulateurs peuvent ordonner aux entreprises de cesser temporairement des pratiques commerciales suspectes, bien que ces demandes puissent être contestées devant les tribunaux luxembourgeois de l’UE.
Les amendes éventuelles pour violation du droit antitrust européen peuvent atteindre 10% du chiffre d’affaires annuel mondial, même si elles atteignent rarement ce niveau, particulièrement lorsque les infractions présumées sont de courte durée.
Un tribunal brésilien a suspendu le mois dernier une mesure provisoire de l’agence antitrust du pays contre Meta sur la même question. Parallèlement, les flux d’informations sur la plateforme de messagerie WhatsApp sont tombés sous le coup des règles européennes de modération de contenu le mois dernier, lorsque la Commission a désigné ces canaux ouverts comme une « très grande plateforme en ligne » au titre du Digital Services Act.
The post Bruxelles menace Meta de sanctions d’urgence sur WhatsApp appeared first on Silicon.fr.

Le Super Bowl ne se joue pas seulement sur le terrain. Cette année, c’est une bataille d’intelligences artificielles qui s’est également disputée à la mi‑temps.
Anthropic, le créateur du modèle Claude, a diffusé une publicité de 60 secondes vivement commentée, dénonçant avec ironie l’intégration croissante de contenus sponsorisés dans ChatGPT, le produit vedette d’OpenAI.
Le spot d’Anthropic, titré « Keep the Signal Clear », illustrait un utilisateur s’adressant à une IA dont les réponses deviennent progressivement parasitées par des messages commerciaux. La voix off concluait : « Une IA devrait vous écouter, pas vous vendre. »
Sans jamais nommer OpenAI, la référence était évidente : depuis janvier 2026, OpenAI teste aux États‑Unis des “réponses sponsorisées” dans ChatGPT, en partenariat avec plusieurs marques. Cette initiative, présentée comme « une manière d’assurer la durabilité du service », a suscité de vifs débats sur la neutralité de l’IA conversationnelle.
Dans un communiqué post‑Super Bowl, OpenAI a réaffirmé sa volonté de « maintenir un équilibre entre accessibilité et soutenabilité », estimant que la publicité contextuelle pouvait financer l’usage gratuit sans compromettre la qualité des réponses. L’entreprise a précisé que les contenus sponsorisés resteraient « clairement identifiés » et « non intrusifs ».
Mais cette explication ne convainc pas tout le monde. De nombreux observateurs estiment que la confiance dans les assistants IA repose sur leur impartialité perçue, un capital symbolique qu’une banalisation de la publicité pourrait fragiliser.
En misant sur cette campagne coûteuse (estimée à près de 14 millions $ pour une minute d’antenne), Anthropic cherche autant à renforcer sa notoriété grand public qu’à se positionner comme la conscience morale du secteur. L’entreprise met en avant un modèle économique centré sur les abonnements professionnels et les partenariats sans publicité.
Selon ses dirigeants, le message visait à rappeler qu’« une IA responsable doit être un outil de pensée libre de toute influence commerciale ». Une pique qui, dans le contexte actuel d’une course effrénée à la rentabilité des modèles, tombe à point nommé.
The post Super Bowl 2026 : Anthropic a défié OpenAI avec une pub anti‑pub appeared first on Silicon.fr.

En 2026, ce n’est sans doute pas l’affaire la plus facile que de tenter de percer sur le marché du périphérique. Le MagCore 87 a donc attiré la curiosité de nos confrères et a rapidement suscité l’étonnement. De prime abord ce qui frappe tout de suite avec ce modèle c’est son poids significatif. On n’est clairement pas sur un petit jouet en plastique mais bien sur un châssis intégralement usiné en aluminium qui flirte avec les deux kilos Esthétiquement le design reste sobre et très industriel avec des lignes tranchées et une finition noire micro-texturée qui ne craint pas trop les traces de doigts gras après une session pizza. Le format est un tkl classique donc sans pavé numérique ce qui permet de libérer de la place pour la souris sans sacrifier les touches de fonction essentielles. Sous le capot on retrouve une structure gasket mount pour un confort de frappe plus souple et surtout des touches en pbt double shot qui ne brilleront pas au bout de trois semaines.
La vraie curiosité vient des switches Kailh box inductive qui n’utilisent pas de contact métallique classique mais un champ magnétique pour détecter l’enfoncement de la touche. Visuellement le rétroéclairage rgb est présent mais reste élégant avec une petite barre lumineuse discrète sur les flancs pour le style. de surcroît l’assemblage ne souffre d’aucun jeu et la plaque fr4 interne associée à plusieurs couches de mousse assure une acoustique assez sourde et plaisante loin des bruits de ferraille de certains concurrents. En premier lieu on sent que la marque a voulu monter en gamme avec un objet dense et sérieux qui respire la solidité tout en gardant un look minimaliste qui se glisse sur n’importe quel bureau.
| caractéristique | Epomaker Magcore 87 |
|---|---|
| format | tkl, 88 touches |
| switchs | Kailh Box Inductive Switch (inductifs) |
| montage | gasket mount |
| keycaps | pbt double-shot, profil cherry |
| actuation | 0,10 à 3,50 mm (réglable) |
| rapid trigger | 0,01 à 2,50 mm (réglable) |
| polling rate | jusqu’à 8000 Hz |
| scan rate | 32 kHz par touche |
| latence | 0,125 ms (annoncée) |
| anti-ghosting | nkro |
| éclairage | rgb par touche (south facing) + rgb logo latéral |
| hot-swappable | oui (uniquement switchs magnétiques inductifs) |
| connexion | usb-c filaire (câble détachable) |
| compatibilité | mac, windows |
| disposition | qwerty uniquement |
| dimensions | 357 × 136 × 40 mm |
| poids | 2,0 kg |
| prix | env. 199 $ (env. 160 € selon vendeur en France) |

D’abord, les points positifs: la finition met tout le monde d’accord. Il est évident qu’on ne s’attendait pas à une telle qualité d’usinage chez Epomaker. Le testeur de chez OCC va jusqu’à juger le Magcore 87 supérieur en finition comme en prestations à son Keychron Q2 Max. Côté frappe, les Kailh Box inductifs sont décrits comme extrêmement confortables, fluides, bien stabilisés, sans effet spongieux ni frottement, alors même qu’ils ne sont pas pré-lubrifiés. De plus, le son est jugé agréable, avec un claquement feutré et plutôt grave, et des stabilisateurs dont la lubrification est saluée. Le logiciel est présenté comme ergonomique: réattribution des touches (pratique si tu viens de l’azerty), menu rgb avec luminosité, macros, et surtout les réglages des switches. Exemple concret, le DKS permet d’assigner jusqu’à quatre actions sur une touche selon le niveau d’enfoncement, et le SOCD gère les conflits d’inputs en donnant la priorité à la dernière touche pressée, apprécié en fps. Combiné au rapid trigger et aux autres options, le test dit que le Magcore 87 peut devenir une véritable arme sur la majorité des jeux compétitifs, même sur des titres moins orientés esport.
Enfin, il y a quelques réserves: la première c’est que cette référence est en qwerty uniquement. Oui, tu peux réassigner pour faire une transition azerty, mais ce n’est pas franchement l’idéal pour un utilisateur français. Deuxième point, nous sommes sur une référence strictement filaire, pas de batterie, donc si tu rêves de canapé + dongle, c’est non. En outre, le logiciel est limité au chinois ou à l’anglais et il est spécifique au Magcore 87, ce qui oblige à aller chercher le bon driver sur la page produit. Petit bémol concret aussi: la bande rgb à droite avec le logo Epomaker resterait en arc-en-ciel sans contrôle via le logiciel.
Au final, le Magcore 87 ressort du test comme une vraie “pépite” et OCC le présente comme le meilleur clavier haut de gamme qu’il ait eu “en sortie de boîte”. Mais il faut garder à l’esprit que ce jugement technique ne viendra pas gommer le fait que c’est une référence qwerty uniquement. Cependant, ce test permet de mettre en lumière la marque Epomaker qui dispose d’un sacré savoir-faire. Avec une présence récente en Europe, il va falloir s’intéresser un peu plus à ses produits. D’autant plus que des versions Azerty sont en route.
SFX : Epomaker Magcore 87 : il va falloir suivre cette marque… a lire sur Vonguru.
L’industrie technologique s’engage dans une compétition sans précédent autour des infrastructures dédiées à l’intelligence artificielle. Amazon et Google mènent la danse avec des budgets d’investissement vertigineux qui dépassent ceux de leurs concurrents. La logique sous-jacente semble limpide : accumuler davantage de capacités de calcul permettrait de concevoir les meilleurs produits IA et ainsi dominer le ... Lire plus
L'article La course aux investissements IA divise les géants technologiques et leurs actionnaires est apparu en premier sur Fredzone.» Nous ne voulons pas de subventions…nous avons besoin de commandes publiques « . Combien de fois n’avons-nous pas entendu cette revendication chez les éditeurs français de logiciels et les startups de la French Tech ?
La donne est peut-être en train de changer à la faveur d’un nouveau paradigme : ériger la souveraineté en critère structurant des achats de l’État, au même niveau que la performance, la sécurité ou les coûts.
Une circulaire doit être signée très prochainement par le Premier ministre pour valider ce principe même si le texte laisse encore de larges marges d’interprétation. L’objectif affiché est de mieux maîtriser les dépendances technologiques de l’administration et utiliser les 4,5 milliards € annuels de commande publique comme levier de structuration de l’offre française et européenne.
Cette circulaire fait suite à plusieurs mois de concertation interministérielle et de dialogue avec la filière industrielle du numérique, qui réclamait un cadre plus lisible.
Le texte consacre un principe de sobriété et de rationalisation. Avant tout achat, les services de l’État devront suivre trois étapes obligatoires : rechercher d’abord une solution déjà disponible au sein du secteur public, dans une logique de mutualisation entre administrations. À défaut, se tourner vers le marché en appliquant les nouveaux critères de sélection. Et seulement en dernier ressort, lancer un développement « à façon ».
Cette hiérarchie vise à limiter la prolifération de projets sur mesure, jugés coûteux et redondants. Elle s’articule avec la doctrine « Cloud au centre de l’État » et s’appuie sur des outils opérés par l’administration comme Tchap, Visio ou FranceTransfert, basés sur des logiciels libres.
Changement majeur : dans la grille de sélection des offres logicielles, la souveraineté apparaît désormais en première position, devant la performance, la sécurité, les coûts, la réversibilité, la maintenabilité et la durabilité. Un renversement symbolique qui place la maîtrise des dépendances technologiques au cœur de la décision.
Selon Bercy, cette souveraineté se décline en trois dimensions : l’immunité aux droits extraterritoriaux, pour limiter les risques liés aux législations étrangères ; la capacité de substitution, garantissant la réversibilité et évitant l’enfermement propriétaire ; et la maîtrise technologique, privilégiant les technologies placées sous contrôle de l’État ou d’acteurs alignés avec ses objectifs.
Le texte ne consacre pas formellement de préférence européenne, alors qu’Anne Le Hénanff, ministre déléguée chargée de l’Intelligence artificielle et du Numérique, la défend dans ses interventions publiques. Une ambiguïté qui laisse une marge d’interprétation aux acheteurs tout en envoyant un signal aux industriels du Vieux Continent.
L’ambition affichée se heurte toutefois à une limite majeure : l’absence de barème. Aucune pondération chiffrée n’est associée aux critères fixés, notamment la souveraineté. Chaque acheteur public conserve donc une large autonomie pour apprécier l’importance de ce critère, ce qui pourrait conduire à des pratiques hétérogènes entre ministères et opérateurs.
La question du contrôle et du suivi reste également peu encadrée. Les dispositifs actuels, comme l’avis préalable de la DINUM pour les projets dépassant 9 millions d’euros, sont déjà partiellement contournés ou appliqués après coup.
Par ailleurs, la doctrine doit encore s’aligner avec les textes européens en préparation sur la commande publique, notamment la révision de la directive de 2014 qui vise elle aussi des objectifs d’autonomie stratégique. Les acheteurs devront arbitrer entre ces orientations nationales, les contraintes budgétaires et la pression opérationnelle.
Pour les éditeurs français et européens, cette circulaire constitue néanmoins un signal politique majeur. L’État annonce qu’il privilégiera les solutions maximisant l’immunité juridique, la réversibilité et la maîtrise technologique, sans exclure les acteurs extra-européens. Les fournisseurs capables de démontrer ces atouts par leur modèle d’hébergement, leur gouvernance ou leurs engagements de portabilité disposeront d’un argument différenciant.
Pour les acheteurs publics, le cadre de décision devient plus lisible, tout en préservant une part d’appréciation dans la mise en œuvre. Ils devront intégrer cette dimension de souveraineté dans leurs stratégies de sourcing et documenter davantage leurs choix pour sécuriser juridiquement leurs décisions.
La réussite de cette doctrine se mesurera à double titre : à la montée en puissance de l’écosystème numérique français et européen dans les marchés publics, et à la capacité de l’administration à réduire ses dépendances critiques sans sacrifier l’innovation ni la qualité de service.
The post Achats publics numériques : la souveraineté devient un critère de choix appeared first on Silicon.fr.

Je vous en parlais y'a pas longtemps, Neocities c'est cette plateforme qui fait revivre l'esprit GeoCities avec ses sites web persos pleins de GIFs qui clignotent et de fonds étoilés. Eh ben les galères continuent pour eux... et ça pique.
Car Bing a décidé de bloquer purement et simplement les 1,5 million de sites hébergés sur leur service. C'est le domaine ENTIER neocities.org qui a été viré de l'index du moteur de recherche de Microsoft et du coup, tous les sous-domaines des utilisateurs avec, en fait. D'ailleurs, c'est pas la première fois puisqu'un blocage similaire avait déjà eu lieu l'été dernier, soi-disant résolu après un contact avec Microsoft.
Kyle Drake, le fondateur, a vu son trafic Bing passer d'environ 500 000 visiteurs par jour à... zéro. Et en cherchant "Neocities" sur Bing, y'a juste un site copycat qui apparait en bonne place. D'ailleurs c'est possiblement du phishing donc gaffe à vous !
Après avoir découvert de ce qu'il se passe, Drake tente de contacter Microsoft pour régler ça. Il soumet alors une douzaine de tickets via les Bing Webmaster Tools. Sauf que derrière, y'a personne. Enfin si, y'a un chatbot IA qui répond en boucle sans rien résoudre. Le mec a même essayé d'acheter de la pub Bing juste pour avoir un être humain au bout du fil. QUE DALLE !
C'est quand Ars Technica a contacté Microsoft que ça a (un peu) bougé. En 24 heures, hop, la page d'accueil est réapparue dans les résultats de recherche. Sauf que les sous-domaines des utilisateurs, eux, sont toujours bloqués pour la plupart. Microsoft a juste dit que "certains sites violaient leurs règles", sans dire lesquels. Et bien sûr, ils refusent de discuter directement avec la plateforme...
Bing ne pèse que ~4,5% du marché mondial. Mais c'est le moteur par défaut de Windows, et surtout, plein d'autres moteurs (dont DuckDuckGo) s'appuient en bonne partie sur l'index Bing en coulisses. Du coup, c'est pas juste un problème Bing, c'est tout un pan du web qui perd l'accès à ces sites.
Le fondateur le dit lui-même , c'est "un des derniers bastions du contenu humain" sur le web. Pas d'IA slop ni de contenu généré pour gratter du référencement. Neocities, ce sont juste des gens qui font des sites persos chelous, des fanpages, de l'art...etc bref c'est totalement le genre de truc qu'un moteur de recherche devrait mettre en avant à une époque où tout est noyé sous de la bouillie synthétique. Mais bon...
Heureusement que Google continue d'indexer les sites Neocities normalement... ^^

Dassault Systèmes et Nvidia annoncent un partenariat de long terme pour construire une plateforme d’IA industrielle destinée à renforcer les jumeaux virtuels et à développer des « Industry World Models ».
Leur vision commune est de faire de l’IA un composant essentiel de l’ingénierie, de la production et de la recherche, au-delà des simples preuves de concept. Il prolonge une collaboration de plus de 25 ans entre les deux groupes, initiée autour du logiciel de modélisation 3D, Catia, sur GPU et étendue progressivement à la simulation physique accélérée.
L’ambition affichée est de définir une architecture industrielle partagée pour une IA qualifiée de « mission-critique », ancrée dans la physique, les contraintes techniques et le savoir industriel plutôt que dans des données généralistes.
Dassault Systèmes apporte sa plateforme 3DEXPERIENCE et ses technologies de Virtual Twin, qui couvrent la conception avec Catia, la fabrication avec Delmia et l’ingénierie système. Nvidia fournit son infrastructure d’IA comprenant GPU, CUDA et RTX, ses modèles ouverts Nemotron, ses bibliothèques logicielles accélérées, ainsi que sa plateforme Omniverse dédiée à la simulation physique et à la collaboration 3D.
Les deux entreprises évoquent le concept de « physical AI », une intelligence artificielle capable de comprendre et de raisonner sur le monde physique en s’appuyant sur des modèles validés scientifiquement et des contraintes de domaine. Les bibliothèques d’IA physique d’Omniverse seront intégrées dans les jumeaux virtuels Delmia pour permettre des systèmes de production autonomes et « software-defined ».
Les Industry World Models, des modèles de référence par secteur combinant jumeaux virtuels, données opérationnelles et modèles d’IA, sont destinés à servir de base pour la conception, la simulation et le pilotage de systèmes dans divers secteurs : aéronautique, automobile, sciences de la vie, robotique ou matériaux.
Sur la plateforme 3DEXPERIENCE, ces Industry World Models alimenteront des « Virtual Companions », des agents IA intégrés aux outils métier et capables de fournir des recommandations contextualisées. Basés sur les modèles Nemotron de Nvidia et les modèles de domaine de Dassault, ces assistants sont conçus pour aider ingénieurs, chercheurs et opérateurs à explorer des scénarios, optimiser des conceptions ou ajuster des paramètres de production en temps réel.
Le partenariat inclut un volet infrastructure avec le déploiement d’« AI factories » sur trois continents via Outscale, le cloud de Dassault Systèmes. Ces centres seront équipés de technologies Nvidia pour entraîner et exécuter les modèles d’IA utilisés par les jumeaux virtuels, tout en répondant aux exigences de souveraineté des données, de protection de la propriété intellectuelle et de conformité réglementaire.
De son côté, Nvidia utilisera les outils de modélisation et d’ingénierie système de Dassault pour concevoir ses propres AI factories, notamment celles basées sur la future plateforme Rubin, en s’appuyant sur l’architecture Omniverse DSX Blueprint. Cette réciprocité illustre une approche où chacun applique les modèles et outils de l’autre à ses propres infrastructures.
Plusieurs entreprises sont déjà présentées comme « early adopters » de cette convergence entre Virtual Twin et IA accélérée : Lucid Motors, Bel, l’OMRON Group ou encore le National Institute for Aviation Research. Dans le secteur automobile, l’objectif est d’accélérer le passage du concept à la production tout en améliorant la précision prédictive des simulations de véhicules et de chaînes de traction.
Image : © Dassault Systemes
The post Dassault Systèmes et Nvidia s’allient pour développer l’IA industrielle appeared first on Silicon.fr.

De la RAM aux CPU, une pénurie peut en cacher une autre.
Sur la RAM, la situation est avérée. Elle découle essentiellement de la demande en GPU, dans le cadre de la « course à l’IA » que se livrent les hyperscalers.
Concernant les CPU, il y a des signaux du côté d’Intel. Depuis quelques mois, l’entreprise emploie, dans sa communication publique, le mot shortage, qu’on peut traduire par « manque »… ou « pénurie ». Elle ne le projette pas tant sur le marché dans son ensemble que sur sa propre incapacité à suivre la demande.
Un premier avertissement était tombé en octobre 2025 : la « pénurie » de CPU allait atteindre un pic au premier trimestre 2026. À la fois sur l’informatique cliente et le datacenter. La demande a été plus importante que prévu sur les anciens procédés de gravure (Intel 10 et Intel 7), nous expliquait-on alors. D’une part pour les Xeon. De l’autre pour les Core, dans le contexte de la transition vers Windows 11.
À trois mois d’intervalle, le discours n’a globalement pas changé. La demande en Xeon reste insatisfaite à l’heure où l’activité « datacenter et IA » connaît une croissance séquentielle sans précédent depuis plus d’une décennie.
>>Intel affirme qu’il y a encore six mois, tout laissait anticiper une hausse du nombre de cœurs par serveur ; pas du nombre de serveurs tout court. Or, après communication avec des clients, c’est la deuxième option qui se dessine, potentiellement pour plusieurs années.
Le yield (taux de production de CPU « utilisables » par rapport au nombre de wafers) renforce la difficulté à délivrer. Intel explique en tout cas que cet indicateur est en dessous de ses attentes. Au final, il ne cache pas son intention de prioriser les serveurs aux PC. Pour ces derniers, la production se concentrerait sur le milieu et le haut de gamme, tout en sourçant davantage de wafers en externe. Il est également question de livrer en priorité les clients qui sont aussi parvenus à obtenir de la mémoire.
Au sujet du marché des serveurs, Omdia va dans le même sens qu’Intel. Le cabinet d’études estime que 15,9 millions d’unités seront livrées en 2026, contre 14,4 millions en 2025.
Les fabricants de processeurs ont, ajoute-t-il, d’autant plus de mal à suivre qu’ils doivent alterner entre les processus de gravure. Quant à TSMC, il a possiblement donné la priorité aux puces IA par rapport aux CPU. Bilan : ces derniers pourraient, selon une estimation jugée « prudente », voir leurs prix augmenter de 11 à 15 % en 2026.
L’IA elle-même tend à se déporter sur les CPU, en conséquence de la rareté et de la cherté des GPU. DeepSeek a récemment ouvert des perspectives dans ce domaine avec son architecture Engram. Censée apporter un « deuxième cerveau » aux LLM, elle s’appuie sur une table de connaissances stockée en mémoire CPU, sans dégradation majeure par rapport à de l’inférence GPU pure.
Intel communique aussi à ce propos. Il est, par exemple, revenu sur l’exploitation de puces Xeon par une agence gouvernementale américaine pour faire tourner des SLM (Mistral 7B, Mixtral 8x7B et Llama 3.1-8B) avec OpenVINO.
AMD, qui maintient à son catalogue des CPU d’anciennes générations, ne parle pas officiellement de pénurie. Par rapport à Intel, il a potentiellement plus de marge pour réallouer si nécessaire sa capacité de production, avec les cartes graphiques Radeon comme variable d’ajustement.
Illustration générée par IA
The post Après la DRAM, le spectre d’une pénurie de CPU appeared first on Silicon.fr.

Quentin, fidèle lecteur de Korben, développe en solo depuis presque un an un outil qui va parler à tous ceux qui cherchent un appart ou une maison et qui en ont marre de jongler entre quinze onglets pour avoir une vision claire d'un quartier.
1dex.fr c'est une plateforme qui agrège un paquet de données géographiques et immobilières sur n'importe quelle adresse en France. Prix de vente au m², transactions DVF, permis de construire, qualité de l'eau, pollution de l'air, travaux à proximité, écoles... Le tout sur une interface cartographique plutôt bien foutue.
Concrètement, vous entrez une adresse, vous cliquez sur "Analyser cette zone" et hop, la carte se remplit de données. On peut alors visualiser les parcelles alentours, voir les dernières ventes, repérer les chantiers en cours, et même afficher les immeubles avec syndic de copropriété. Y'a même un système de calques pour switcher entre fond de carte classique, vue satellite ou mode sombre.
Perso j'aime bien ce genre d'outil qui met la data à portée de main sans avoir besoin de fouiller data.gouv.fr pendant des heures.
Son modèle est freemium mais rassurez-vous, l'essentiel est gratuit avec une limite journalière d'analyses. Si vous dépassez, soit vous revenez le lendemain, soit vous passez à la caisse pour un accès intensif. Quentin bosse aussi sur une API pour les pros et une extension navigateur qui ajoutera les données 1dex directement sur les annonces immo. Pas mal pour éviter les mauvaises surprises avant même de visiter !
Voilà si vous êtes en recherche de logement ou juste curieux de savoir ce qui se passe autour de chez vous, ça vaut le coup d'œil -> 1dex.fr
Et bravo à Quentin !

GitHub vient peut-être de trouver une piste sérieuse pour sauver la santé mentale des mainteneurs de projets open source. Parce que je sais pas si vous le savez mais gérer un projet populaire sur GitHub, c'est un peu comme essayer de vider l'océan avec une petite cuillère, surtout avec la montée en puissance des contributions de faible qualité, dont une bonne partie est désormais générée par IA ...
Le problème, c'est que la quantité ne veut pas dire la qualité... Entre les Pull Requests (PR) qui ne respectent pas les guidelines du "README.md" et celles qui sont abandonnées en cours de route, les mecs derrière les gros dépôts commencent à fatiguer. Du coup, un représentant de GitHub explique dans une discussion avec la communauté explorer très sérieusement plusieurs options, dont la possibilité de désactiver purement et simplement les Pull Requests sur un dépôt.
Si l'idée est validée, ce serait un vrai changement car actuellement, pour arrêter de recevoir des contributions, la solution la plus radicale reste de passer le repo en mode "archive", ce qui gèle tout le projet (lecture seule). Certains utilisent des automatisations via des fichiers .github/workflows/close-pr.yml, mais c'est du bricolage. L'idée ici, c'est donc d'avoir un bouton spécial pour dire "Ok les gars, on n'accepte plus les modifs pour le moment", sans pour autant couper les issues ou les discussions.
GitHub évalue aussi d'autres leviers, genre limiter les PR uniquement aux collaborateurs du projet ou permettre la suppression définitive d'une PR polluante directement depuis l'interface. Perso, j'aime bien cette idée de bouton car elle évite de bloquer tout le reste du projet inutilement. Le coût de revue d'une PR, même foireuse, reste un effort humain important, alors que la générer avec Copilot ou ChatGPT ne demande qu'un effort minime pour l'expéditeur.
D'ailleurs, si vous faites partie de ceux qui aiment gérer vos PR depuis le terminal , vous voyez bien le délire... quand la liste s'allonge de dizaines d'entrées inutiles, y'a de quoi avoir envie de tout balancer par la fenêtre !!
Bref, peu importe ce qui sera décidé mais c'est bien de voir GitHub à l'écoute. Et si ils valident ces changements, ça pourrait carrément faciliter la vie de pas mal de développeurs qui saturent face au tri permanent.
Bref, je trouve que c'est une super idée !
