Dell relance sa gamme XPS


Un an après l’avoir supprimé, Dell revient sur sa décision et relance XPS, le segment haut de gamme de ses ordinateurs portables et un pilier historique de sa stratégie produits.
L’annonce, faite au CES 2026 de Las Vegas, marque un revirement assumé de la part de Jeff Clarke, directeur des opérations du groupe texan, qui reconnaît que l’entreprise s’était « un peu égarée » dans le pilotage de son activité PC.
« Nous n’avons pas écouté nos clients. Vous aviez raison sur le branding », a déclaré Jeff Clarke lors d’un point presse à Las Vegas. Celui qui a repris l’an dernier la supervision directe de la division PC, a évoqué une année difficile marquée par « des tarifs douaniers, la promesse non tenue de l’IA » et « l’une des transitions de processeurs les plus lentes de [sa] carrière ».
Cette autocritique s’ajoute aux retours négatifs du marché, lorsque le constructeurs avait remplacé la marque XPS par les appellations Dell Pro et Dell Pro Max, une nomenclature jugée trop proche de celle d’Apple et mal accueillie par le public comme par les partenaires.
Le groupe justifie aujourd’hui ce revirement par la nécessité de clarifier son offre : les modèles Dell visent désormais le segment grand public et professionnel intermédiaire, XPS reprend son positionnement premium, et Alienware demeure consacré au gaming.
Les deux premiers modèles relancés, les XPS 14 et XPS 16, figurent parmi les ordinateurs les plus fins jamais produits par Dell, avec une épaisseur de 14,6 mm et un poids respectif de 1,36 kg et 1,63 kg. Leurs châssis en aluminium, leurs bordures d’écran réduites et leur design minimaliste les placent en concurrence directe avec les MacBook Air 13 et 15 pouces d’Apple.
Les deux machines embarquent les nouveaux processeurs Intel Core Ultra Series 3, dotés de graphiques Intel Arc, censés offrir jusqu’à 78 % de performances IA supérieures et une autonomie pouvant atteindre 27 heures dans certaines configurations. Dell affirme également avoir repensé son système de refroidissement pour le rendre plus silencieux, plus fin et plus économe en énergie.
Les XPS 14 et 16 sont disponibles dès cette semaine aux États-Unis et au Canada, à partir de 2000 $. Un XPS 13 de moins de 13 mm d’épaisseur sera présenté plus tard dans l’année.
Le choix de relancer XPS s’inscrit dans un contexte de reprise incertaine du marché mondial du PC. Selon les estimations d’IDC, les ventes devraient progresser de 3 à 5 % cette année, après deux années de contraction.
Mais Dell, comme ses concurrents HP et Lenovo, reste confronté à des coûts de production accrus – notamment à cause de la hausse du prix des mémoires – et à une demande encore freinée par l’attentisme des entreprises.
Jeff Clarke a reconnu que l’intelligence artificielle n’a pas encore généré le cycle de renouvellement espéré, malgré la mise en avant des fonctions d’assistance et de traitement local intégrées aux nouveaux processeurs.
Avec le retour de la gamme XPS, née dans les années 1990, Dell espère ainsi regagner des parts de marché dans le segment premium.
The post Dell relance sa gamme XPS et admet s’être « égaré » dans le marché du PC appeared first on Silicon.fr.

L’industrie des semi-conducteurs a franchi une étape historique avec l’annonce de la technologie 2nm (dite N2). Pour atteindre une telle finesse de gravure, TSMC a dû opérer un changement radical de paradigme en abandonnant l’architecture FinFET au profit des transistors à feuilles nanométriques, ou GAAFET (Gate-All-Around).
Cette innovation permet d’entourer le canal de conduction sur ses quatre faces, offrant un contrôle électrique quasi parfait là où les structures précédentes commençaient à laisser fuiter de l’énergie. Selon TSMC, les bénéfices sont massifs : à performance égale, une puce 2 nm consomme environ 30 % d’énergie en moins que son prédécesseur en 3 nm. Cette efficacité thermique libère une « marge de manœuvre » précieuse qui transforme radicalement les capacités de l’intelligence artificielle embarquée (Edge AI).
Jusqu’à présent, l’IA sur smartphone était limitée par la chaleur et la mémoire. Les modèles les plus puissants nécessitaient des serveurs distants, posant des problèmes de latence et de confidentialité. Le passage au 2 nm change la donne. Grâce à l’augmentation de la densité des transistors, les ingénieurs peuvent désormais intégrer des unités de traitement neuronal (NPU) capables de gérer des modèles de langage de plus de 10 milliards de paramètres directement sur l’appareil.
Cette autonomie de calcul apporte des bénéfices immédiats. La confidentialité devient totale puisque les données ne quittent plus le téléphone, et la réactivité devient instantanée pour la traduction en temps réel ou la retouche vidéo complexe. Surtout, cela permet l’éclosion de véritables « agents d’IA » autonomes, capables de comprendre le contexte de l’utilisateur en continu sans transformer l’appareil en radiateur de poche ni vider la batterie en quelques heures.
Mais cette révolution a un prix. Les capacités de production pour 2026 sont déjà saturées, Apple ayant préempté la majeure partie des lignes de production pour ses futurs processeurs, laissant Nvidia et AMD se disputer les quotas restants pour le secteur des serveurs.
Le coût de production d’un seul wafer de 2 nm est désormais estimé à 30 000 dollars, une barrière financière qui renforce la domination de TSMC et des acteurs les plus riches de la tech.
L’impact du 2 nm dépassera largement le cadre du smartphone. Cette capacité de traiter des algorithmes de vision par ordinateur avec une consommation minimale est le chaînon manquant pour la robotique légère, les drones autonomes et les lunettes de réalité augmentée.
Alors que le 2 nm entame son cycle de vie, TSMC prépare déjà l’étape suivante pour 2027 : l’ère de l’Angström avec le procédé A16. En introduisant l’alimentation par l’arrière de la puce, cette future génération promet de repousser encore plus loin les frontières de l’infiniment petit, confirmant que la course à la puissance ne fait que commencer.
The post 2 nanomètres : le saut technologique de TSMC qui libère la puissance de l’IA locale appeared first on Silicon.fr.

Alphabet, maison mère de Google, vient d’annoncer l’acquisition d’Intersect pour 4,75 milliards $ en cash, auxquels s’ajoute la reprise de la dette existante. Cette opération représente l’une de ses transactions les plus importantes et marque un tournant dans sa stratégie de développement de centres de données dédiés à l’IA.
L’enjeu est de taille : permettre à Google d’accéder à davantage d’électricité pour ses infrastructures, alors que le réseau électrique américain, vieillissant, peine à absorber une demande énergétique qui explose pour la première fois depuis des décennies. L’IA constitue le principal moteur de cette croissance fulgurante.
« Intersect nous aidera à accroître nos capacités, à opérer avec plus d’agilité dans la construction de nouvelles centrales électriques en phase avec la nouvelle charge des centres de données, et à repenser les solutions énergétiques pour stimuler l’innovation et le leadership des États-Unis » déclare Sundar Pichai, directeur général de Google et d’Alphabet.
Aux termes de cet accord, Alphabet achète les projets énergétiques et de centres de données d’Intersect, qu’ils soient en développement ou en construction. L’entreprise possède 15 milliards $ d’actifs en exploitation ou en construction.
Elle exploite actuellement environ 7,5 gigawatts de capacité solaire et de stockage, et prévoit de développer 8 gigawatts supplémentaires. Pour référence, un gigawatt équivaut approximativement à la production d’un réacteur nucléaire et peut alimenter environ 750 000 foyers. L’essentiel de cette capacité est concentré au Texas.
Son PDG, Sheldon Kimber, avait d’ailleurs surnommé le Texas le « Disneyland de l’énergie » en raison de ses abondantes ressources éoliennes et solaires. Parmi ses projets phares dans cet État figure « Quantum », un système de stockage d’énergie propre construit directement à côté d’un campus de centres de données pour Google.
L’opération s’inscrit dans une stratégie plus large d’Alphabet dans le secteur énergétique. Google, en partenariat avec TPG Rise Climate, avait déjà soutenu Intersect lors d’une levée de fonds de plus de 800 millions $ en décembre 2024.
Dans le cadre de cet accord, Alphabet acquiert la plateforme de développement et les effectifs d’Intersect, y compris les actifs en développement déjà sous contrat avec Google. Intersect conservera sa propre marque et restera dirigée par Sheldon Kimber.
Les actifs opérationnels existants de la société au Texas, ainsi que ses actifs opérationnels et en développement en Californie, ne seront pas inclus dans l’acquisition et continueront de fonctionner comme une entreprise indépendante, soutenue par ses investisseurs actuels. TPG Rise Climate conservera une participation dans ces actifs.
Intersect explorera également un éventail de technologies émergentes pour accroître et diversifier l’approvisionnement énergétique, tout en soutenant les investissements de Google dans ses centres de données américains.
« En acquérant un développeur et pas seulement un contrat d’achat d’électricité, Google s’offre la flexibilité nécessaire pour construire où et quand il le souhaite » estime Ben Hertz-Shargel, analyste du cabinet Wood Mackenzie cité par Bloomberg.
The post Google mise 4,75 milliards $ sur l’énergie verte pour doper ses data centers IA appeared first on Silicon.fr.

Quel est le prix à payer pour développer une politique nationale sur l’IA ? Alors que la France et l’Europe l’érigent en priorité stratégique, l’Autorité de la concurrence publie une étude sur son coût énergétique et environnemental, après son premier avis sur l’IA générative publié à l’été 2024.
Et le gendarme de la concurrence tire la sonnette d’alarme : la consommation électrique des centres de données pourrait représenter 4 % de la consommation nationale française dès 2035, tandis que les géants du secteur sécurisent déjà leurs approvisionnements en énergie, risquant de fausser le jeu concurrentiel.
Les chiffres parlent d’eux-mêmes. Les centres de données représentent actuellement environ 1,5 % de la consommation mondiale d’électricité, mais leur impact local s’avère bien plus significatif. L’Autorité anticipe que leur consommation pourrait au moins doubler d’ici 2030 pour atteindre 945 TWh dans le monde.
En France, la situation est tout aussi préoccupante. La consommation des centres de données, estimée à 10 TWh au début des années 2020, pourrait grimper entre 12 et 20 TWh en 2030, puis entre 19 et 28 TWh en 2035, représentant près de 4 % de la consommation électrique nationale. Face à cette explosion, les grands acteurs américains multiplient déjà les partenariats pour sécuriser leur approvisionnement en énergie décarbonée, qu’il s’agisse d’énergies renouvelables ou du nucléaire.
Au-delà de l’électricité, l’impact environnemental de l’IA mobilise d’importantes ressources tout au long de la chaîne de valeur : eau, métaux rares et foncier. Selon l’Arcep, le volume d’eau prélevé par les centres de données a atteint 0,6 million de mètres cubes en 2023, avec une croissance annuelle soutenue de 17 % en 2022 et 19 % en 2023. À cette consommation directe s’ajoutent les prélèvements indirects liés à la production d’électricité, estimés à plus de 5,2 millions de mètres cubes par an.
Plusieurs acteurs du numérique ont d’ailleurs annoncé une forte augmentation de leurs émissions de gaz à effet de serre, allant de 30 à 50 %, résultant notamment de l’augmentation de la consommation énergétique de leurs centres de données.
L’Autorité identifie trois types d’enjeux concurrentiels découlant de cette situation.
Premier enjeu : l’accès à l’énergie et la maîtrise de son coût. Les acteurs du secteur sont confrontés à des difficultés de raccordement au réseau électrique et à des incertitudes sur le prix de l’énergie. L’électricité représente entre 30 et 50 % des charges d’exploitation d’un centre de données, et le contexte énergétique est en pleine mutation, notamment avec la fin du dispositif ARENH au 31 décembre 2025.
Le nouveau système dual se met en place avec le versement nucléaire universel et les contrats d’allocation de long terme adossés à la production nucléaire proposés par EDF. L’Autorité se montre vigilante : elle veillera à ce que la position privilégiée des acteurs les plus importants ne leur permette pas de sécuriser des approvisionnements d’énergie dans des conditions avantageuses au détriment des plus petits. Elle rappelle également qu’EDF ne doit pas adopter de comportements anticoncurrentiels tels que la discrimination, le refus d’approvisionnement ou le verrouillage du marché.
Deuxième enjeu : la frugalité comme paramètre de concurrence. Face à l’impact environnemental de l’IA, le concept de frugalité se développe, défini comme la consommation optimisée des ressources dans un objectif de minimisation de l’impact environnemental. Les demandeurs montrent un intérêt croissant pour des outils plus frugaux, tandis que plusieurs acteurs développent des modèles de plus petite taille ou communiquent sur leur empreinte environnementale.
L’Autorité considère que la frugalité peut contribuer à l’animation du jeu concurrentiel en affectant le prix, la qualité et l’innovation. Elle peut notamment permettre à des entreprises de taille plus modeste de rivaliser avec les grands acteurs. Toutefois, elle met en garde contre plusieurs risques : l’adoption de comportements trompeurs en termes de frugalité, le fait de ne pas communiquer sur l’empreinte environnementale alors qu’il existe une demande, ou encore le fait de limiter l’innovation en matière de frugalité.
Troisième enjeu : la standardisation de l’empreinte environnementale. L’Autorité constate que les entreprises communiquent peu sur l’impact environnemental de leurs solutions, qu’il n’existe pas de méthodologie partagée et que les mesures entreprises sont difficilement comparables.
Plusieurs outils ont été développés, comme le référentiel général d’éco-conception des services numériques co-publié par l’Arcep et l’Arcom, ou encore le référentiel général pour l’IA frugale porté par l’Afnor. D’autres outils se concentrent sur la mesure de l’empreinte énergétique et carbone, tandis que certains acteurs proposent la mise en place d’une notation environnementale permettant de comparer les différents modèles.
Mais là encore, l’Autorité alerte sur plusieurs problématiques : l’adoption d’outils qui ne s’appuieraient pas sur une méthodologie robuste, l’adoption d’une standardisation privant certains acteurs de son bénéfice, les comportements empêchant la standardisation, ou encore les échanges entre concurrents portant sur des informations commercialement sensibles.
Elle insiste particulièrement sur la nécessité de disposer de données fiables et transparentes sur l’empreinte énergétique et environnementale de l’IA. Une transparence qui permettrait à la frugalité de pleinement jouer son rôle de paramètre de concurrence. Elle souligne également qu’il convient de s’assurer que l’accès aux zones adaptées à l’implantation de centres de données et à l’énergie, en particulier à l’électricité d’origine nucléaire, ne se fasse pas à l’avantage de certains acteurs uniquement.
The post IA : l’Autorité de la concurrence alerte sur la bataille de l’énergie appeared first on Silicon.fr.

Le créateur de ChatGPT frappe un grand coup dans sa stratégie d’expansion internationale. avec le recrutement de George Osborne, ex-chancelier de l’Échiquier britannique, pour diriger « OpenAI for Countries ».
L’architecte du programme d’austérité du gouvernement conservateur britannique a pour mission de piloter l’ensemble des projets de déploiement de l’IA avec les États étrangers, du développement d’infrastructures aux applications dans l’éducation et la formation.
OpenAI for Countries est le volet international de Stargate, l’ambitieux projet de 500 milliards $ lancé début 2025 par Sam Altman aux côtés de Masayoshi Son (SoftBank) et Larry Ellison (Oracle) lors d’un événement à la Maison Blanche.
Depuis son lancement en mai dernier, OpenAI a signé des accords au Royaume-Uni et en Norvège. Elle affirme être en négociation avec une cinquantaine de pays pour les aider à développer une « IA souveraine » respectant les principes démocratiques, notamment la liberté d’expression, les marchés libres et la prévention de la collecte massive de données gouvernementales.
Le recrutement de George Osborne, qui sera basé à Londres, intervient quelques mois après l’embauche par Anthropic, de Rishi Sunak, autre ancien chancelier et Premier ministre conservateur britannique, comme conseiller en octobre dernier.
The post Pourquoi OpenAI recrute George Osborne ? appeared first on Silicon.fr.

Le ministère de l’Intérieur a été victime d’une cyberattaque d’une ampleur inédite. Laurent Nuñez, ministre de l’Intérieur, a confirmé ce 17 décembre sur Franceinfo qu’il s’agit d’un acte très grave, qualifiant l’incident d’attaque massive ayant touché la Place Beauvau.
L’intrusion informatique s’est déroulée dans la nuit du jeudi 11 au vendredi 12 décembre. Selon le ministre, une personne a pu récupérer un certain nombre de mots de passe de boîtes mails, permettant ainsi d’obtenir des codes d’accès à certains systèmes d’information du ministère. Les analyses montrent une intrusion sur des boîtes de messagerie professionnelle, contenant des éléments d’identification, dont la récupération a rendu possible l’accès à des applications métiers.
Le fichier de traitement d’antécédents judiciaires (TAJ) et le fichier des personnes recherchées (FPR) ont notamment été consultés. Le TAJ liste non seulement les condamnations des individus, mais agrège surtout l’ensemble des données issues des enquêtes de la police et de la gendarmerie, donnant accès aux coordonnées des victimes ou des témoins. Le FPR centralise quant à lui les signalements de fugitifs, les interdictions de territoire et les disparitions inquiétantes.
Quelques dizaines de fiches ont pu être extraites du système, selon les déclarations de Laurent Nuñez qui a réfuté qu’il y ait eu une extraction de millions de données, contrairement aux allégations circulant en ligne.
Selon Le Figaro, un individu utilisant le pseudo de Indra a revendiqué l’attaque sur BreachForums, un forum anglophone réapparu à de multiples reprises après avoir été fermé plusieurs fois par les autorités.
Dans son message rapporté par Le Figaro, Indra prétend avoir accédé aux données de 16 444 373 individus en compromettant les fichiers de police français. Il évoque également avoir eu accès au système EASF MI, lié aux canaux de communication qu’utilisent les autorités internationales, et mentionne la DGFiP et la CNAV.
Les pirates donnent à la France une semaine pour les contacter afin de négocier, menaçant de faire fuiter progressivement les données. Mais pour l’heure, aucun échantillon des prétendues données piratées n’a été dévoilé, une pratique pourtant habituelle dans ce type de hacking. Laurent Nuñez a assuré ne pas avoir reçu de demande de rançon.
Selon les informations rapportées par Le Figaro, Indra affirme que la cyberattaque aurait été menée en représailles de l’arrestation de la quasi-totalité des membres de Shiny Hunters. En juin 2025, ce groupe avait revendiqué avoir lancé l’assaut contre le groupe de luxe Kering, dérobant les données de quelques millions de clients.
L’identité de l’un de ses plus éminents membres avait fait la une des médias en France : celle du Français Sébastien Raoult, âgé d’une vingtaine d’années à peine, et condamné en janvier 2024 aux États-Unis à trois ans de prison ferme et à un remboursement de cinq millions $. Le jeune hacker avait été interpellé à Rabat, au Maroc, après une demande du FBI, puis rapatrié en France en décembre 2024. Il a été mis en examen par la justice française pour atteintes à un système de traitement automatisé de données dès son arrivée à l’aéroport de Roissy.
Le ministre de l’Intérieur a reconnu des imprudences de la part de certains agents du ministère de l’intérieur. Ce piratage s’est fait en dépit de toutes les règles de prudence diffusées régulièrement. Il suffit de quelques individus qui ne respectent pas ces règles pour créer une brèche, a-t-il commenté.
Le ministère argue avoir déployé un plan d’actions immédiat et renforcé dès la détection de l’intrusion, en sécurisant les infrastructures, en généralisant l’authentification à double facteur et en révoquant les accès compromis.
Deux enquêtes, judiciaire et administrative, ont été ouvertes. L’enquête judiciaire, conduite sous la direction du parquet de Paris, a été confiée à l’Office anti-cybercriminalité (OFAC) de la direction nationale de la police judiciaire. La Commission nationale de l’informatique et des libertés (CNIL) a également été saisie.
The post Cyberattaque au ministère de l’Intérieur : des fichiers sensibles consultés appeared first on Silicon.fr.

Est-ce un tournant majeur pour Hollywood ? Alors que beaucoup de professionnels du cinema américain se mobilisent depuis 2023 contre les effets dévastateurs de l’utilisation de l’IA sur leurs métiers, Walt Disney investit un milliard $ dans OpenAI, assorti d’un accord de licence lui permettant à l’inventeur de ChatGPT d’utiliser plus de 200 personnages iconiques de ses franchises Marvel, Pixar et Star Wars dans ses outils d’intelligence artificielle.
Dans le cadre de ce contrat de trois ans, les utilisateurs de ChatGPT et de Sora, l’outil de génération vidéo, pourront créer des images et de courtes vidéos mettant en scène Mickey Mouse, Cendrillon, Simba ou encore Dark Vador.
L’accord, qui démarre en janvier 2026, prévoit l’exclusivité pour OpenAI durant la première année concernant l’utilisation des personnages Disney mais, comme le précise Bloomberg, ne pourra pas exploiter la propriété intellectuelle du groupe pour entraîner ses modèles. Il exclut toute utilisation de l’image ou de la voix des acteurs. Un utilisateur pourra ainsi générer une vidéo avec Woody de Toy Story, mais sans la voix de Tom Hanks.
En échange de cette licence, Disney prendra une participation d’un milliard $ dans OpenAI, valorisée à 500 milliards $. Le groupe recevra également des bons de souscription lui permettant d’acquérir des parts supplémentaires à un prix symbolique durant la durée du contrat. Disney devient par ailleurs un client d’OpenAI, utilisant ses API pour développer de nouveaux produits et expériences, notamment pour Disney+, et déploiera ChatGPT en interne pour ses employés.
Pour Bob Iger, le PDG de Disney, cette alliance marque une évolution stratégique face aux bouleversements technologiques. « Aucune génération humaine ne s’est jamais opposée au progrès technologique, et nous n’avons pas l’intention d’essayer », a-t-il déclaré sur CNBC.
Selon le FT, il s’agit du plus important accord conclu à ce jour entre une entreprise d’IA et un groupe médias qui ont dû composer avec l’expansion rapide d’OpenAI et ses implications pour leur propriété intellectuelle.
Tandis que le New York Times poursuit OpenAI en justice, d’autres éditeurs comme News Corp ont préféré négocier des accords de licence.
Disney lui-même a adopté une approche ferme sur la protection de ses droits. Selon Bloomberg, le groupe a adressé mercredi soir une lettre de mise en demeure à Google, l’accusant de violer massivement ses droits d’auteur en utilisant ses contenus pour entraîner ses propres outils d’IA. Disney et Comcast ont également poursuivi Midjourney, une entreprise de génération d’images par IA, pour violation de droits d’auteur.
L’annonce a suscité des réactions contrastées dans le milieu créatif hollywoodien. La Writers Guild of America s’est montrée particulièrement critique, estimant dans une note à ses membres qu’OpenAI et d’autres entreprises d’IA ont « volé » d’importantes bibliothèques d’œuvres créées par ses membres. « L’accord de Disney avec OpenAI semble cautionner ce vol et céder la valeur de ce que nous créons à une entreprise tech qui a bâti son business sur notre dos », dénonce le syndicat selon Bloomberg.
Le syndicat des acteurs SAG-AFTRA a adopté un ton plus mesuré, affirmant que Disney et OpenAI l’avaient contacté pour offrir des assurances sur l’utilisation éthique et responsable de la technologie.
The post Disney investit 1 milliard $ dans OpenAI appeared first on Silicon.fr.

C’est l’info mercato de cette fin d’année dans le secteur cyber. Révélée hier par l’Informé, elle est confirmée ce jour par un communiqué de presse officiel : Orange a recruté Guillaume Poupard au poste nouvellement créé de Chief Trust Officer.
Rattaché directement à Christel Heydemann, sa directrice générale, il rejoindra l’opérateur le 1er février 2026.
Figure du monde de la cybersécurité française, Guillaume Poupard a dirigé l’Agence Nationale de la Sécurité des Systèmes d’Information (ANSSI) pendant huit ans, de 2014 à 2022, période durant laquelle il a travaillé au renforcement du dispositif français de cyberdéfense et plus généralement à sensibiliser sur les enjeux économiques liés aux risques cyber.
Depuis 2022, il occupait le poste de directeur général adjoint de Docaposte, la filiale numérique de La Poste, où il supervisait les actifs technologiques stratégiques : cybersécurité, intelligence artificielle et cloud.
Que va faire Guillaume Poupard au sein de l’opérateur ? Définir et incarner la stratégie d’Orange en matière de souveraineté et de confiance numérique. Concrètement, il devra accélérer le développement, en collaboration avec les entités Orange Business et Orange Cyberdéfense, d’offres innovantes dans trois domaines clés : la cybersécurité (grand public et entreprises), le cloud de confiance et l’intelligence artificielle souveraine.
Des secteurs en pleine croissance mais où la concurrence fait rage. Au classement Numeum 2024 des ESN, Orange Business occupe la cinquième place avec un chiffre d’affaires de 1,8 milliard € ( sur un total de 7,8 milliards) quand Orange Cyberdéfense a enregistré des revenus de 1,2 milliard sur cette période.
The post Orange recrute Guillaume Poupard pour piloter sa stratégie de souveraineté numérique appeared first on Silicon.fr.

Une coalition d’acteurs majeurs de l’internet vient d’officialiser Really Simple Licensing (RSL) 1.0, le premier standard de licence conçu pour protéger le contenu à l’ère de l’IA, offrant un langage universel pour définir comment les contenus peuvent être utilisés.
Développé par le comité technique RSL en collaboration avec les éditeurs de contenus tels que Yahoo, Ziff Davis et O’Reilly Media, RSL 1.0 s’appuie sur la simplicité du format RSS pour créer des conditions de licence lisibles par les machines. Le standard dépasse les simples règles binaires du fichier robots.txt en établissant un cadre économique adapté à l’internet soumis au développement de l’IA.
Le président du comité technique RSL, Eckart Walther, considère que cette publication représente un point d’inflexion pour l’internet ouvert, car elle instaure clarté et transparence dans les droits sur le contenu, tout en permettant à l’innovation de s’exercer.
RSL 1.0 introduit plusieurs innovations majeures :
Contrôle granulaire des usages IA : Le standard définit de nouvelles catégories d’utilisation du contenu avec les balises « ai-all », « ai-input » et « ai-index ». Ces options permettent aux éditeurs d’autoriser les moteurs de recherche à indexer leur contenu tout en refusant son utilisation dans des applications de recherche IA.
Protection des communs numériques : En partenariat avec Creative Commons, RSL 1.0 intègre un système de licence basé sur les contributions. Cette approche vise à soutenir l’écosystème non commercial qui alimente des milliards de pages web, de dépôts de code et d’ensembles de données constituant le « commons numérique » – ce patrimoine partagé de connaissances librement accessibles sur internet.
L’initiative a suscité un soutien de la part de l’écosystème numérique. Des organisations d’infrastructure comme Cloudflare, Akamai et l’IAB Tech Lab ont annoncé leur adhésion au standard. Du côté des médias, Associated Press, Vox Media, USA Today, le Boston Globe Media, BuzzFeed, Stack Overflow et The Guardian font partie des nouveaux venus, rejoignant des centaines d’autres marques médias.
Au total, plus de 1500 organisations médiatiques, marques et entreprises technologiques à travers le monde soutiennent désormais RSL, couvrant des milliards de pages web qui représentent la majorité du contenu internet professionnel utilisé pour entraîner les modèles d’IA.
Will Allen, vice-président produit chez Cloudflare, souligne que la licence lisible par les machines sera une caractéristique importante pour l’avenir du web. De son côté, la PDG de Creative Commons, Anna Tumadóttir, rappelle l’importance des options de partage équitable au-delà des licences commerciales pour maintenir l’accès aux connaissances à l’ère de l’IA.
RSL 1.0 ne se contente pas de définir des règles techniques. Doug Leeds, co-PDG et cofondateur du RSL Collective – une organisation à but non lucratif pour les droits collectifs des créateurs numériques – affirme que pour quiconque tire ses revenus de la publication de contenu en ligne, RSL 1.0 est une évidence. C’est ce qui explique le large soutien provenant de tous les secteurs de l’écosystème internet, des grandes entreprises médiatiques aux organisations d’infrastructure qui définissent le fonctionnement du web.
Le standard arrive à un moment critique où les questions de droits d’auteur et d’utilisation du contenu par les systèmes d’IA font l’objet de nombreux débats juridiques. RSL 1.0 propose un cadre pragmatique pour résoudre ces tensions en offrant aux créateurs de contenu les outils pour définir précisément leurs conditions d’utilisation, tout en permettant aux développeurs d’IA d’accéder légalement aux ressources dont ils ont besoin.
L’arrivée de RSL 1.0 représente plus qu’une simple norme technique : c’est une tentative de rééquilibrer les relations de pouvoir dans l’économie numérique. En donnant aux éditeurs et créateurs les moyens de contrôler l’utilisation de leur travail par les systèmes d’IA, tout en préservant les principes d’ouverture et de partage qui ont fait la richesse d’internet, RSL 1.0 pourrait tracer la voie vers un modèle plus durable et équitable pour tous les acteurs de l’écosystème numérique.
La spécification complète est accessible sur le site rslstandard.org, où les développeurs et éditeurs peuvent découvrir comment implémenter ce nouveau standard dans leurs applications et sites web.
Selon nos observations, aucun éditeur français n’est engagé pour le lancement dans l’initiative RSL 1.0.
The post C’est quoi RSL 1.0, le standard qui veut protéger les éditeurs face à l’IA ? appeared first on Silicon.fr.

Les poids lourds de l’intelligence artificielle passent à l’offensive pour structurer le marché naissant des agents IA.
OpenAI, Anthropic et Block annoncent la création de l’Agentic AI Foundation (AAIF), une nouvelle fondation hébergée par la Linux Foundation. L’ambition : imposer des standards ouverts pour ces systèmes capables d’agir de manière autonome, avant que la fragmentation du marché ne s’installe durablement.
Parmi les membres, on peut aussi citer Cloudflare, Oracle, Cisco, IBM Salesforce.
L’initiative ne sort pas de nulle part. En s’appuyant sur la Linux Foundation, les trois fondateurs reprennent un modèle de gouvernance qui a fait ses preuves dans l’open source : transparence des décisions, règles publiques et représentation équilibrée des contributeurs. Un choix qui vise à rassurer les entreprises, réticentes à dépendre d’un seul fournisseur pour des technologies aussi critiques.
Car l’enjeu est de taille. Après des années d’expérimentation, les agents IA sortent des laboratoires pour devenir une infrastructure d’entreprise à part entière. Ces systèmes, capables de planifier et d’exécuter des tâches complexes avec un minimum de supervision humaine, soulèvent des questions majeures de sécurité, d’interopérabilité et de verrouillage technologique.
L’AAIF démarre sur des bases concrètes, avec trois projets open source déjà largement adoptés par les développeurs. Anthropic apporte le Model Context Protocol (MCP), un protocole permettant de connecter les modèles de langage à des outils et systèmes externes de manière standardisée. Une brique essentielle pour orchestrer des agents capables d’agir dans des environnements complexes.
De son côté, Block contribue avec goose, un framework modulaire conçu pour construire et déployer des agents IA extensibles.
OpenAI, enfin, verse AGENTS.md dans l’escarcelle de la fondation. Ce format d’instructions ouvert, déjà utilisé par des dizaines de milliers de projets, fonctionne comme un « README pour machines » : il documente les capacités, outils et comportements des agents pour faciliter leur interopérabilité.
L’initiative bénéficie d’emblée d’un soutien de poids. AWS, Google, Microsoft, Bloomberg et Cloudflare ont rejoint la fondation en tant que membres « platinum ». Une configuration qui donne à l’AAIF une influence immédiate sur la définition des standards de fait pour l’IA agentique, tout en affichant une neutralité vis-à-vis des fournisseurs.
Pour les développeurs, la promesse est de proposer un socle unifié de protocoles et de formats pour créer des agents fonctionnant à travers différents clouds, outils et référentiels de code. En standardisant des technologies déjà massivement utilisées, la fondation entend réduire les coûts d’intégration et accélérer l’adoption par les entreprises.
Au-delà de l’interopérabilité, l’AAIF met en avant les enjeux de sûreté et de fiabilité. En posant un cadre commun pour décrire les capacités des agents, contrôler leur accès aux outils et coordonner leur action entre systèmes, la fondation veut réduire les risques liés à des implémentations hasardeuses. Objectif : faciliter l’audit des comportements d’agents et faire évoluer collectivement les bonnes pratiques au fur et à mesure que ces technologies se diffusent.
The post L’Agentic AI Foundation veut imposer les standards de l’IA autonome appeared first on Silicon.fr.

La pression réglementaire européenne sur les géants technologiques américains s’intensifie. Ce 9 décembre, la Commission européenne ouvre une enquête antitrust visant Google, filiale d’Alphabet. En cause : l’utilisation de contenus en ligne d’éditeurs et de vidéos YouTube pour entraîner ses modèles d’intelligence artificielle.
Il s’agit de la deuxième investigation contre Google en moins d’un mois, témoignant des inquiétudes croissantes de Bruxelles face à la domination des Big Tech dans les nouvelles technologies émergentes. Cette offensive intervient quelques jours seulement après le lancement d’une enquête similaire visant Meta, accusé de bloquer l’accès de concurrents à son système de messagerie WhatsApp.
Concrètement, Bruxelles s’inquiète de l’utilisation par Google des contenus d’éditeurs pour générer ses résumés alimentés par l’IA, appelés AI Overviews, sans compensation adéquate et sans donner aux éditeurs la possibilité de refuser. Les mêmes préoccupations concernent l’exploitation des vidéos YouTube téléchargées par les utilisateurs.
Ces AI Overviews, déployés dans plus de 100 pays ( pas en France, NDLR), apparaissent au-dessus des liens hypertextes traditionnels vers les pages web pertinentes. Google a d’ailleurs commencé à y intégrer de la publicité depuis mai dernier.
« Un écosystème d’information sain dépend du fait que les éditeurs disposent des ressources nécessaires pour produire un contenu de qualité. Nous ne permettrons pas aux contrôleurs d’accès de dicter ces choix », a martelé Teresa Ribera, commissaire européenne chargée de la concurrence, en référence au DMA (Digital Markets Act) qui s’applique actuellement à une vingtaine de « services de plate-forme essentiels » dont les exploitants sont nommés » contrôleurs d’accès » (gatekeepers).
Google a immédiatement rejeté ces accusations, comme il l’avait déjà fait en juillet face à la plainte des éditeurs indépendants qui a déclenché cette enquête. « Cette plainte risque d’étouffer l’innovation sur un marché plus concurrentiel que jamais », a réagi un porte-parole.
Du côté des plaignants, l’Independent Publishers Alliance, le Movement for an Open Web et l’ONG britannique Foxglove ne décolèrent pas. « Google a rompu le pacte qui sous-tend Internet. L’accord était que les sites web seraient indexés, récupérés et affichés lorsqu’ils sont pertinents pour une requête. Tout le monde avait une chance », a déclaré Tim Cowen, avocat conseillant ces groupes, cité par Reuters. « Maintenant, il met son AiO, Gemini, en premier et ajoute l’insulte à l’injure en exploitant le contenu des sites web pour entraîner Gemini. Gemini est le jumeau maléfique de Search.»
Si Google est reconnu coupable de violation des règles antitrust de l’UE, l’amende pourrait atteindre 10% de son chiffre d’affaires annuel mondial.
En septembre dernier, Google a écopé d’une amende de près de 3 milliards € pour avoir favorisé ses propres services de technologie publicitaire. Au total, les amendes infligées par l’UE dépassent 9,5 milliards €, incluant 4,13 milliards pour Android et 2,42 milliards pour avoir écrasé des rivaux dans la recherche shopping. Une pénalité de 1,49 milliard pour AdSense a toutefois été annulée l’année dernière.
The post Google dans le viseur de Bruxelles pour l’utilisation de contenus dans son IA appeared first on Silicon.fr.

Avec l’acquisition de Confluent pour une valeur de 11 milliards $, IBM réalise l’une de ses plus importantes opérations depuis le rachat de Red Hat en 2019.
Cette transaction permet au groupe d’Armonk de s’emparer d’une technologie devenue stratégique : le traitement de données massives en temps réel, indispensable au fonctionnement des applications d’intelligence artificielle les plus avancées.
Avec cette acquisition, IBM entend créer une plateforme de données intelligente spécialement conçue pour l’IA d’entreprise, capable de connecter et faire circuler les informations entre environnements, applications et interfaces de programmation.
Basée à Mountain View en Californie, Confluent s’est imposée comme un pionnier du streaming de données en temps réel, une technologie devenue cruciale pour alimenter les applications d’intelligence artificielle. La plateforme, construite sur Apache Kafka, permet aux entreprises de connecter, traiter et gérer des flux massifs de données instantanément, éliminant les silos inhérents aux systèmes d’IA agentique.
La société compte plus de 6 500 clients à travers le monde, dont plus de 40% des entreprises du Fortune 500. Michelin utilise ainsi sa plateforme pour optimiser en temps réel ses stocks de matières premières et semi-finies. Instacart a déployé la technologie pour développer des systèmes de détection de fraude et améliorer la visibilité des produits disponibles sur sa plateforme de livraison.
Pour Arvind Krishna, PDG d’IBM depuis 2020, cette transaction s’inscrit dans une politique volontariste de croissance externe visant à positionner le groupe sur les segments à forte croissance et marges élevées du logiciel et du cloud.
Cette acquisition fait suite au rachat d’HashiCorp pour 6,4 milliards $ en avril 2024 et, surtout, à l’opération Red Hat de 34 milliards $ en 2019, considérée par les analystes comme le catalyseur central de la transformation cloud d’IBM.
Le timing de l’opération n’est pas anodin. Selon IDC, plus d’un milliard de nouvelles applications logiques devraient émerger d’ici 2028, remodelant les architectures technologiques dans tous les secteurs. Le marché adressable de Confluent a doublé en quatre ans, passant de 50 milliards $ à 100 milliards en 2025.
Les deux entreprises collaboraient déjà depuis cinq ans dans le cadre d’un partenariat permettant à certains clients d’IBM d’utiliser la plateforme de Confluent. L’intégration devrait permettre de créer des synergies substantielles à travers l’ensemble du portefeuille d’IBM, notamment dans l’IA, l’automatisation, les données et le conseil.
Les principaux actionnaires de Confluent, détenant collectivement environ 62% des droits de vote, ont conclu un accord de vote avec IBM, s’engageant à soutenir la transaction et à s’opposer à toute opération alternative. En cas d’échec ou de résiliation de l’accord, IBM devra verser à Confluent une indemnité de rupture de 453,6 millions $.
IBM a financé l’opération avec sa trésorerie disponible. La transaction, soumise à l’approbation des actionnaires de Confluent et aux autorisations réglementaires, devrait se finaliser d’ici la mi-2026.
The post IBM rachète Confluent pour 11 milliards $ appeared first on Silicon.fr.

Un coup de semonce contre Elon Musk ou le début d’une série de sanctions contre les réseaux sociaux ? Vendredi 5 décembre 2025, la Commission européenne a infligé une amende de 120 millions € à X, son réseau social racheté en 2022.
Cette sanction constitue la première application concrète du Digital Services Act (DSA), le règlement européen sur les services numériques entré en vigueur il y a deux ans. Une décision qui intervient après deux années d’enquête et qui s’annonce comme le début d’un bras de fer politique majeur entre Bruxelles et Washington.
La Commission européenne a retenu trois violations distinctes des obligations de transparence imposées par le DSA, toutes notifiées initialement en juillet 2024.
Le premier grief concerne la coche bleue, utilisée auparavant pour signaler des comptes officiels gratuits mais désormais vendue 7 euros par mois. Bruxelles estime que cette pratique constitue une forme de conception trompeuse qui viole le DSA. Selon les nouveaux paramètres de X, un compte doté d’une coche peut ne pas signaler un utilisateur réel et être un robot, a déclaré la Commission.
L’exécutif européen précise que si le DSA n’impose pas aux plateformes de vérifier l’identité de leurs membres, il leur interdit en revanche de prétendre faussement qu’une telle vérification a eu lieu. Ce système expose les utilisateurs à des risques accrus d’escroquerie par usurpation d’identité et de manipulation par des acteurs malveillants.
Le deuxième manquement porte sur le registre publicitaire de X, qui ne respecte pas les exigences de transparence du DSA. L’accès au répertoire est rendu difficile et des informations essentielles manquent, notamment l’identité de l’entité qui finance les campagnes publicitaires. Cette opacité empêche la surveillance efficace des risques, notamment la détection d’escroqueries ou de campagnes de menaces hybrides.
Enfin, X est accusé d’imposer des obstacles inutiles aux chercheurs indépendants qui veulent avoir accès à ses données publiques, comme le nombre de vues, de likes, de partages, les tendances de hashtags. Les conditions de service de la plateforme interdisent explicitement cet accès indépendant. En étudiant des phénomènes comme la polarisation des publics ou comment des contenus se propagent sur les réseaux sociaux, les chercheurs peuvent éventuellement détecter des risques systémiques pour nos démocraties, comme les tentatives d’ingérences étrangères lors des élections.
La Commission européenne a défendu le montant de la sanction, soulignant sa proportionnalité. Le DSA prévoit théoriquement des amendes pouvant atteindre 6% du chiffre d’affaires mondial annuel pour chaque infraction constatée. Face aux critiques, Henna Virkkunen, vice-présidente de la Commission chargée de la souveraineté technologique, a expliqué que la sanction prenait en compte la nature, la gravité et la durée des infractions commises.
Avant de préciser, les amendes se calculent sur base de critères qui tiennent compte de la nature des infractions, de leur gravité et de leur durée. Sur cette base, l’amende pour les coches bleues a été estimée à 45 millions €, celle pour les publicités à 35 millions et celle pour l’accès aux données à 40 millions €.
La décision de Bruxelles a déclenché une vive réaction du côté américain, même avant son annonce officielle. Le vice-président américain JD Vance a dénoncé la démarche européenne en déclarant que l’UE devrait défendre la liberté d’expression au lieu de s’en prendre à des entreprises américaines pour des foutaises, s’attirant un message de remerciement d’Elon Musk.
Le chef de la diplomatie américaine Marco Rubio a estimé que l’amende infligée par l’Union européenne constituait une attaque contre le peuple américain par des gouvernements étrangers, affirmant que l’époque de la censure en ligne était révolue.
Face à ces accusations, Henna Virkkunen a fermement répondu que l’amende n’avait rien à voir avec de la censure, précisant que la Commission n’était pas là pour imposer les amendes les plus élevées, mais pour s’assurer que les lois sur le numérique soient respectées.
Elon Musk a déclaré samedi sur sa plateforme que l’UE devrait être abolie, dénonçant la surrégulation de l’Union européenne.
Cette affaire s’inscrit dans un contexte de tensions croissantes entre Washington et Bruxelles sur la régulation numérique et les relations commerciales.
La sanction annoncée ne couvre que les infractions identifiées en juillet 2024. La Commission européenne a précisé que plusieurs enquêtes concernant X se poursuivent, notamment sur des soupçons de non-respect des obligations en matière de contenus illégaux et de désinformation. Bruxelles s’attend à ce que ces enquêtes soient bouclées plus rapidement que la première.
Le réseau X a entre 60 et 90 jours pour se mettre en conformité. S’il ne le fait pas, des amendes supplémentaires pourraient lui être infligées.
Cette première amende dans le cadre du DSA marque un tournant dans l’approche réglementaire de l’Union européenne. La Commission montre qu’elle ne se laisse pas intimider par les pressions américaines, malgré un contexte de négociations commerciales tenduesX
Pour les utilisateurs européens de X, des changements sont attendus : interface modifiée, notifications renforcées, refonte du processus de vérification et amélioration de la transparence publicitaire. La plateforme devra également ouvrir l’accès à certaines données pour la recherche académique.
The post L’UE sanctionne X : première amende historique dans le cadre du DSA appeared first on Silicon.fr.

L’éditeur français de logiciels de cybersécurité Evertrust annonce une levée de fonds de 10 millions € en Série A auprès du fonds de capital-risque américain Elephant. Cette opération doit permettre à la startup d’accélérer son développement sur les marchés européens et de consolider sa position d’acteur de référence dans la gestion des certificats numériques.
Fondée en 2017 par Kamel Ferchouche, Jean-Julien Alvado et Étienne Laviolette, Evertrust s’est transformée d’un cabinet de conseil en un éditeur de logiciels spécialisé dans deux technologies complémentaires : la PKI (Public Key Infrastructure) et le CLM (Certificate Lifecycle Management). La première permet l’émission et la gestion des certificats numériques, tandis que la seconde automatise leur cycle de vie.
Cet avantage technologique confère à Evertrust une position distinctive : l’entreprise est le seul acteur européen et l’un des quatre seuls au monde à proposer une offre intégrée couvrant ces deux segments.
Le modèle économique d’Evertrust repose sur une clientèle de grands comptes, avec plus de 25% des entreprises du CAC 40 parmi ses clients. Rentable depuis sa création, l’entreprise affirme réaliser encore plus de 80% de son chiffre d’affaires en France et emploie 40 collaborateurs.
Plusieurs facteurs structurels alimentent la demande pour ses solutions. La durée de validité des certificats publics, actuellement de 398 jours, va connaître une réduction drastique : 200 jours en 2026, 100 jours en 2027 et seulement 47 jours en 2029. Cette évolution rendra l’automatisation du renouvellement des certificats indispensable pour les organisations, qui doivent déjà gérer une multiplication exponentielle de ces artefacts cryptographiques.
Dans un contexte de tensions commerciales et réglementaires, Evertrust mise sur sa nature souveraine. Ses solutions sont conçues et hébergées en Europe et conformes aux standards internationaux comme eIDAS et NIST.
L’entreprise a récemment obtenu la certification CSPN de l’ANSSI pour sa plateforme PKI, un sésame qui renforce sa crédibilité auprès des acteurs publics et parapublics. Lauréate de la promotion 2025 du programme French Tech 2030, Evertrust bénéficie d’une reconnaissance institutionnelle qui appuie son développement.
Les 10 millions € levés serviront principalement à renforcer les équipes commerciales et techniques, qui devraient tripler d’ici cinq ans. L’entreprise prévoit également un changement de modèle de distribution : d’un modèle majoritairement direct en France, elle entend basculer vers un réseau de partenaires revendeurs et intégrateurs de solutions de sécurité sur les principaux marchés européens.
The post Evertrust lève 10 M€ pour s’imposer en leader de la PKI et du CLM appeared first on Silicon.fr.

Le Future of Life Institute vient de publier l’édition 2025 de son AI Safety Index, un rapport qui évalue les pratiques de sécurité des principales entreprises développant des intelligences artificielles avancées.
Les conclusions sont sans appel : aucune entreprise n’atteint l’excellence en matière de sécurité, et le secteur dans son ensemble reste dangereusement mal préparé face aux risques existentiels que pourraient poser les IA futures.
Sur les huit entreprises évaluées, aucune n’obtient une note maximale. Le meilleur résultat revient à Anthropic avec un simple C+, suivi d’OpenAI (C) et de Google DeepMind (C-). Les autres acteurs ( xAI, Z.ai, Meta, DeepSeek et Alibaba Cloud) obtiennent des notes nettement inférieures, allant de D à F.
Cette situation révèle que même les leaders du secteur se situent tout au plus dans la moyenne. L’industrie de l’IA, malgré ses ambitions affichées de développer des systèmes toujours plus puissants, est loin de disposer des garde-fous nécessaires.
Malgré certaines critiques, Anthropic demeure l’entreprise la plus responsable selon l’index. Elle se distingue par une gouvernance solide (statut de Public Benefit Corporation), des efforts significatifs en recherche de sécurité, un cadre de sécurité relativement développé et une communication transparente sur les risques.
Toutefois, des faiblesses importantes subsistent. Le rapport souligne notamment l’absence récente d’essais sur l’amélioration des capacités humaines dans le cycle d’évaluation des risques, ainsi qu’un passage par défaut à l’utilisation des interactions des utilisateurs pour l’entraînement des modèles.
Les recommandations adressées à Anthropic incluent la formalisation de seuils de risques mesurables, la documentation de mécanismes concrets d’atténuation, l’amélioration de l’indépendance des évaluations externes et la publication d’une version publique robuste de sa politique de lanceurs d’alerte.
OpenAI se distingue par un processus d’évaluation des risques plus large que certains concurrents et par la publication, unique parmi ses pairs, d’une politique de lanceur d’alerte (whistleblowing) suite à sa médiatisation.
Néanmoins, le rapport appelle l’entreprise à aller plus loin : rendre ses seuils de sécurité réellement mesurables et applicables, accroître la transparence vis-à-vis des audits externes, et surtout aligner ses positions publiques avec ses engagements internes.
DeepMind montre des progrès en matière de transparence, ayant notamment complété le questionnaire de l’AI Safety Index et partagé des éléments de politique interne, comme son dispositif de « whistleblowing ».
Cependant, les fragilités persistent : l’évaluation des risques reste limitée, la validité des tests externes est jugée faible, et le lien entre la détection de risques et le déclenchement de mesures concrètes demeure flou.
Certaines entreprises ont entamé des démarches d’amélioration. Par exemple, xAI a publié un cadre de sécurité pour ses « IA de frontière », et Meta a formalisé un cadre avec seuils et modélisation des risques.
Mais les évaluations restent superficielles ou incomplètes : les couvertures de risque sont restreintes, les seuils peu crédibles, les mécanismes d’atténuation flous ou absents, et la gouvernance interne insuffisante. On note notamment l’absence de politique de lanceurs d’alerte et un manque d’autorité claire en cas de déclenchement de risques.
Pour les entreprises les moins bien notées, notamment DeepSeek et Alibaba Cloud, les progrès constatés sont très modestes, principalement sur la publication de cadres de sécurité ou la participation à des standards internationaux.
Le constat le plus alarmant du rapport concerne la sécurité existentielle, c’est-à-dire la capacité à prévenir des catastrophes majeures comme la perte de contrôle ou le mésalignement (misalignment).
Pour la deuxième édition consécutive, aucune entreprise n’obtient une note supérieure à D dans ce domaine. Cela signifie qu’en dépit des ambitions exprimées par certains acteurs de développer une AGI ou une superintelligence dans la décennie, aucune démarche crédible et concrète de planification pour garantir le contrôle ou l’alignement à long terme n’a été mise en place.
Un membre du comité d’experts qualifie ce décalage entre la cadence des innovations techniques et l’absence de stratégie de sécurité de profondément alarmant.
Cette situation pose plusieurs défis majeurs :
Un risque structurel : Si les entreprises continuent à développer des IA sans plans tangibles de contrôle existentiel, nous pourrions nous diriger vers des systèmes dont le comportement échappe à tout encadrement, posant potentiellement un danger global.
Un problème de gouvernance collective : L’absence d’un standard universel, d’un plan de surveillance indépendant ou d’une régulation contraignante rend la sécurité de l’IA dépendante de la bonne volonté des entreprises.
Une dissonance entre ambitions et préparation : Nombreuses sont les acteurs qui visent l’AGI dans la décennie, mais aucun ne démontre qu’il a envisagé, préparé ou traduit cela en mesures concrètes.
Face à ce constat, le rapport formule plusieurs recommandations à destination des entreprises, des régulateurs et des décideurs publics.
D’abord, les entreprises doivent dépasser les déclarations d’intention et produire des plans concrets, chiffrés et mesurables, avec des seuils de risque clairs, des mécanismes d’alerte, des protocoles d’atténuation et une vraie gouvernance interne, idéalement avec une surveillance indépendante..
Ensuite, les entreprises devraient s’engager publiquement à respecter des standards communs, par exemple en adoptant l’AI Act dans l’Union Européenne ou un code de bonnes pratiques similaire, et en coopérant à des initiatives globales de gouvernance de l’IA.
Enfin, en cas d’intention réelle de développer des IA très puissantes, les acteurs doivent clarifier leurs objectifs et expliquer comment ils comptent garantir le contrôle, l’alignement et la prévention des risques existentiels.
Il convient de noter que les évaluations reposent sur des éléments publics ou documentés. Il ne s’agit pas d’audits internes secrets, mais d’observations sur ce que les entreprises ont rendu public ou déclaré. Par conséquent, l’index mesure ce que l’on sait des pratiques, ce qui signifie que des efforts internes invisibles pourraient exister sans être capturés.
De plus, l’édition 2025 couvre des pratiques jusqu’à début novembre 2025 et ne prend pas en compte les événements récents, lancements de nouveaux modèles ou annonces postérieures à cette date.
AI Safety Index 2025 : la méthodologie
Sources d’information Système de notation
Limites reconnues L’édition 2025 couvre les pratiques jusqu’à début novembre 2025 et ne prend pas en compte les événements, lancements de modèles ou annonces postérieures à cette date de collecte. |
The post AI Safety Index 2025 : un bilan inquiétant de la sécurité de l’IA appeared first on Silicon.fr.

La pression monte sur OpenAI. Dans un mémo interne envoyé ce lundi et consulté par le Wall Street Journal, Sam Altman convoque une « alerte rouge » pour améliorer la qualité de ChatGPT. Une décision qui implique de reléguer d’autres projets au second plan, dont le développement de la publicité, des agents IA pour le shopping et la santé, ainsi que Pulse, un assistant personnel produisant des actualités matinales personnalisées.
Ce virage stratégique intervient alors que Google vient de reprendre la main technologique. Le géant de Mountain View vient de lancer son modèle Gemini 3, qui a surpassé le GPT-5 d’OpenAI sur les tests de référence de l’industrie. De son côté, Anthropic, autre rival montant, a également dépassé OpenAI avec son modèle Opus 4.5.
Les chiffres témoignent que la dynamique profite à Google qui affirme que sa base d’utilisateurs actifs mensuels est passée de 450 millions en juillet à 650 millions en octobre, dopée notamment par le lancement d’un générateur d’images en août. Plus révélateur encore : d’après Similarweb, les internautes passent désormais plus de temps à discuter avec Gemini qu’avec ChatGPT, même si OpenAI conserve une large avance en nombre d’utilisateurs avec plus de 800 millions d’utilisateurs hebdomadaires.
Le défi pour OpenAI ne se limite pas à la technologie. L’entreprise fait face à un désavantage structurel majeur : elle n’est pas rentable et doit lever des fonds quasiment en continu pour survivre, contrairement à Google qui peut financer ses investissements sur ses revenus courants. Selon ses propres projections financières, OpenAI devra atteindre environ 200 milliards $ de chiffre d’affaires pour devenir profitable en 2030.
Dans son mémo, Sam Altman insiste sur la nécessité d’apporter des améliorations substantielles à ChatGPT, en matière de personnalisation, de rapidité, de fiabilité et de capacité à répondre à un éventail plus large de questions. Pour y parvenir, il a instauré des conférences téléphoniques quotidiennes avec les équipes responsables et encouragé les transferts temporaires entre services.
Cette « alerte rouge » succède à une précédente « alerte orange ». OpenAI utilise un système de trois codes couleur (jaune, orange, rouge) pour hiérarchiser l’urgence des problématiques à traiter.
Malgré ces difficultés, Sam Altman conserve des arguments pour rassurer. Dans son mémo, il a affirmé qu’un nouveau modèle de raisonnement prévu la semaine prochaine surpassera le dernier Gemini de Google. Nick Turley, responsable de ChatGPT, a d’ailleurs souligné lundi soir sur X que l’objectif était de poursuivre la croissance « tout en rendant ChatGPT encore plus intuitif et personnel ».
Reste que cette mobilisation générale confirme ce que beaucoup soupçonnaient : la domination initiale d’OpenAI dans l’IA générative appartient désormais au passé. La course de fond ne fait que commencer.
Illustration : image générée par l’IA
The post Pourquoi OpenAI décrète l’« alerte rouge » face à Google appeared first on Silicon.fr.

Trois mois après sa création en septembre 2025, Gradium annonce officiellement son lancement avec une levée de fonds de 60 millions € en tour d’amorçage. Un montant rare pour une entreprise aussi jeune mais qui témoigne de l’appétit des investisseurs pour les technologies d’IA vocale de nouvelle génération.
L’approche technique de Gradium repose sur les modèles de langage audio, équivalents natifs-audio des large language models (LLM) textuels. Cette architecture, initialement inventée par les fondateurs de l’entreprise, permet de traiter la voix de manière native sans passer par une transcription intermédiaire en texte, contrairement aux systèmes traditionnels qui enchaînent reconnaissance vocale, traitement textuel et synthèse vocale.
Cette approche native offre plusieurs avantages techniques : réduction de la latence, préservation de l’expressivité vocale et capacité à gérer n’importe quelle tâche vocale de manière unifiée. Les modèles de langage audio sont désormais devenus le standard dominant de l’industrie depuis leur invention par les fondateurs.
L’équipe fondatrice réunit quatre chercheurs reconnus dans le domaine de l’IA audio : Neil Zeghidour (CEO, ex-Meta et Google DeepMind), Olivier Teboul (CTO, ex-Google Brain), Laurent Mazaré (Chief Coding Officer, ex-Google DeepMind et Jane Street) et Alexandre Défossez (Chief Scientist Officer, ex-Meta). Leur expertise s’appuie sur plus d’une décennie de recherche fondamentale menée notamment au sein de Kyutai, laboratoire de recherche en IA à but non lucratif dont Neil Zeghidour et Laurent Mazaré étaient deux membres fondateurs.
Cette collaboration avec Kyutai se poursuit et constitue un atout stratégique : elle donne à Gradium un accès privilégié aux avancées de la recherche fondamentale, qu’elle peut ensuite transférer rapidement vers des applications commerciales. La technologie sous-jacente de Gradium sera identique à celle de Moshi, l’IA vocale développée par Kyutai, a précisé Neil Zeghidour à Bloomberg.
Gradium affirme résoudre un compromis technique majeur du secteur : les systèmes vocaux actuels obligent généralement à choisir entre qualité d’interaction, faible latence et coût abordable. La startup vise à proposer simultanément une expressivité vocale réaliste, une transcription précise et une interaction à très faible latence, tout en maintenant des prix permettant un déploiement à grande échelle.
Cette proposition de valeur s’adresse en priorité aux développeurs et aux entreprises via une plateforme API. Le service supporte déjà cinq langues au lancement (anglais, français, allemand, espagnol et portugais), avec d’autres en préparation.
Gradium affirme générer ses premiers revenus quelques semaines seulement après sa création. L’entreprise compte déjà des clients dans plusieurs secteurs : gaming, agents IA, service client, apprentissage des langues et santé.
Le tour de seed de 60 millions d’euros a été co-mené par FirstMark Capital et Eurazeo, avec la participation de DST Global Partners, Eric Schmidt (ancien CEO et Chairman de Google), Xavier Niel (Iliad), Rodolphe Saadé (CMA CGM), Korelya Capital et Amplify Partners.
Ce montant positionne Gradium parmi les levées de seed les plus importantes de l’écosystème français et européen, reflétant les attentes du marché sur le potentiel de l’IA vocale. Selon Neil Zeghidour, le secteur en est encore au stade où se trouvaient les chatbots avant l’émergence des LLM : les systèmes existants restent fragiles, coûteux et limités dans leur capacité à proposer des interactions naturelles.
L’ambition affichée de Gradium est de devenir le socle technologique de référence pour la voix à l’échelle mondiale, en faisant de la voix l’interface principale entre humains et machines.
Photo : Les fondateurs de Gradium. De gauche à droite : Olivier Teboul (Chief Technology Officer), Alexandre Défossez (Chief Scientist Officer), Neil Zeghidour (Chief Executive Officer), Laurent Mazaré (Chief Coding Officer) © DR
The post Gradium lève 60 millions € pour industrialiser l’IA vocale appeared first on Silicon.fr.

Alphabet, maison mère de Google, a retiré sa plainte antitrust déposée auprès de la Commission européenne contre les pratiques cloud de Microsoft, une semaine après l’ouverture par Bruxelles de trois enquêtes de marché sur AWS et Microsoft Azure dans le cadre du Digital Markets Act (DMA).
Désormais, Google affirme vouloir contribuer aux travaux des autorités dans ce cadre plus large, et indique rester engagé dans le dialogue avec les décideurs publics pour faire évoluer les règles de concurrence et les conditions de licences dans le cloud.
Google avait saisi la Commission européenne en 2024 en accusant Microsoft d’utiliser des conditions de licences logicielles pour enfermer les clients dans sa plateforme Azure. La plainte mettait en avant des pénalités financières, des restrictions d’usage de Windows Server et des obstacles d’interopérabilité pour les entreprises souhaitant exécuter les logiciels Microsoft sur des clouds concurrents ou migrer leurs charges de travail hors d’Azure.
Ces griefs faisaient écho à des préoccupations déjà exprimées par l’association professionnelle CISPE, soutenue par Amazon, qui avait elle-même déposé puis retiré une plainte contre Microsoft après un accord transactionnel en 2024.
Les enquêtes ouvertes par la Commission visent à déterminer si AWS et Azure doivent être désignés comme « contrôleurs d’accès » (gatekeepers) pour leurs services cloud, alors même qu’ils ne remplissent pas automatiquement tous les seuils chiffrés prévus par le DMA. Bruxelles veut évaluer si certaines caractéristiques du secteur (effets de verrouillage, coûts de sortie, barrières techniques au multicloud) renforcent le pouvoir de marché de ces hyperscalers au détriment de la concurrence.
Une troisième enquête examinera si les dispositions actuelles du DMA suffisent à traiter les pratiques susceptibles de limiter la contestabilité et l’équité dans le cloud, ou si des ajustements réglementaires sont nécessaires. La Commission a indiqué que ces travaux s’inscrivent dans un effort plus large pour adapter les outils de concurrence numérique aux spécificités de l’informatique en nuage dans l’UE.
The post Cloud : Google retire sa plainte antitrust contre Microsoft appeared first on Silicon.fr.

Les grandes entreprises combinent plusieurs clouds pour répartir les workloads, optimiser les coûts, rapprocher les données des utilisateurs et limiter les risques de dépendance à un seul fournisseur. Jusqu’ici, relier ces environnements impliquait soit l’usage d’Internet public sans garanties de bande passante, soit des montages de connectivité privée complexes, longs à déployer et coûteux à exploiter.
L’alliance entre AWS et Google Cloud combine le nouveau service AWS Interconnect- multicloud et Google Cloud Cross-Cloud Interconnect pour proposer une connectivité privée et automatisée entre les deux environnements. Elle fournit une connectivité entre VPC AWS et VPC/VPC‑SC Google Cloud, intégrée de manière native aux consoles et APIs des deux fournisseurs.
Google Cloud avait déjà positionné Cross-Cloud Interconnect comme brique clé de son architecture “Cross-Cloud Network”, permettant de relier Google Cloud à AWS, Azure, Oracle Cloud Infrastructure et d’autres MSP via des liens privés à haut débit.
De son côté, AWS a lancé (en préview) AWS Interconnect – multicloud pour proposer des connexions privées depuis AWS vers d’autres fournisseurs de cloud.
Les deux acteurs mettent en avant une automatisation poussée : les clients peuvent réserver de la capacité dédiée à la demande et établir la connectivité en quelques minutes, sans gérer directement le câblage, les circuits ni l’infrastructure physique sous‑jacente.
L’annonce inclut une spécification ouverte pour l’interopérabilité réseau entre clouds décrite comme un standard commun de connectivité privée qui vise à réduire la complexité de l’adressage, du routage et de la gestion des politiques réseau entre environnements AWS et Google Cloud.
L’objectif est de permettre à d’autres fournisseurs de cloud d’implémenter le même modèle, afin d’étendre ce socle d’interopérabilité au‑delà du seul duo AWS–Google Cloud. Cette ouverture pourrait favoriser l’émergence d’un écosystème où les clouds majeurs s’alignent sur des standards communs de connectivité privée, à l’image de ce qui existe déjà pour certains protocoles réseau et interfaces de peering.
Sur le plan technique, Cross-Cloud Interconnect fournit des liaisons privées avec des capacités de 10 ou 100 Gbit/s dans de nombreux sites mondiaux, gérées par Google côté physique, avec des métriques de performance détaillées (latence, pertes de paquets, temps de trajet aller‑retour).
Les documents techniques de Google décrivent un modèle de double attachement (primaire et redondant) et l’utilisation de BGP pour l’échange de routes entre Google Cloud et AWS, avec des exigences de haute disponibilité.
AWS Interconnect-multicloud, en préview, est présenté comme un service managé offrant des connexions privées simples, résilientes et à haut débit vers d’autres clouds, intégrées avec les outils réseau et d’observabilité AWS.
L’intégration avec Cross-Cloud Interconnect vise à abstraire la gestion des ports, des circuits et des délais de provisioning, en exposant une expérience de type “cloud‑native” dans les deux consoles.
L’alliance cible des scénarios où les données ou applications sont réparties entre AWS et Google Cloud, par exemple pour des plateformes analytiques, des charges IA/ML, ou l’intégration de SaaS opérant sur plusieurs clouds.
Un exemple cité concerne l’intégration de Salesforce Data 360, qui nécessite des ponts privés robustes entre différents environnements pour alimenter des cas d’usage d’IA et d’analytique sur des données réparties.
Pour les clients, les bénéfices mis en avant sont la réduction du temps de mise en service des liaisons, la simplification opérationnelle (moins de gestion d’infrastructure physique) et de meilleures garanties de performance que l’Internet public. L’approche standardisée doit aussi faciliter la gouvernance réseau et la sécurité dans des environnements multicloud complexes, où les architectures doivent concilier segmentation, conformité et performance de bout en bout.
Sous le feu des critiques des associations professionnelles et scrutés par les régulateurs, les deux grands CSP américains engagent un mouvement vers un modèle où la connectivité inter‑cloud devient un service managé de première classe, au même titre que le compute ou le stockage, plutôt qu’un assemblage de liens télécoms et de configurations spécifiques.
Reste à observer dans quelle mesure les autres fournisseurs adopteront la spécification proposée et comment les intégrateurs réseau et opérateurs télécoms adapteront leurs offres face à cette montée en puissance de la connectivité multicloud native.
The post AWS et Google Cloud créent un pont multicloud appeared first on Silicon.fr.
