Vue lecture

RPCS3 permet de faire tourner plus de 70 % des jeux PlayStation 3 sur PC.

L'émulation des anciennes consoles offre souvent une expérience de jeu confortable jusqu'à un certain point seulement, mais le projet d'émulation PlayStation 3 RPCS3 a considérablement amélioré la situation. Aujourd'hui, plus de 70 % des jeux PlayStation 3 fonctionnent sur PC sans problème majeur. Selon la base de données de compatibilité du projet, plus de 7 jeux sur 10 ont été certifiés « jouables », ce qui signifie qu'ils peuvent être joués du début à la fin sans bugs critiques et avec des performances stables. C'est particulièrement important pour les fans de PS3, car les consoles originales fonctionnelles se font de plus en plus rares. L'émulation préserve l'accès à ces jeux pour la communauté rétro et transforme un PC classique en une plateforme polyvalente pour les titres modernes comme pour les classiques. Au-delà des sauvegardes, les joueurs PC constatent souvent que les processeurs et cartes graphiques modernes permettent d'améliorer ces titres par rapport à la version originale, offrant des images plus nettes et une fréquence d'images stable que les anciennes consoles Sony ne pouvaient pas toujours garantir. En clair, un matériel plus puissant lève souvent diverses limitations, rendant jouables des jeux qui étaient auparavant injouables. Par conséquent, bien que le taux de compatibilité officiel de 70 % reflète l'état de compatibilité du jeu, en pratique, le pourcentage de jeux réellement jouables sur PC est probablement encore plus élevé. Cela représente un progrès considérable pour la communauté des joueurs consoles japonais, et ce pourcentage devrait encore augmenter à l'avenir. (Lire la suite)
  •  

NVIDIA se prépare à lancer des processeurs ARM.

NVIDIA prévoit de lancer cette année des processeurs pour ordinateurs portables grand public basés sur l'architecture ARM, baptisés N1 et N1X, qui devraient dominer la plateforme Windows on ARM. Les discussions autour d'un processeur NVIDIA grand public circulent depuis l'année dernière, suite aux rumeurs concernant l'intention de l'entreprise d'utiliser ARM pour créer un système sur puce (SoC) pour ordinateur portable. Cependant, le projet a apparemment été retardé et le DGX Spark, équipé du processeur GB10, a été lancé à sa place. Désormais, selon un article de DigiTimes, le processeur N1X sera disponible dans les ordinateurs portables dès le premier trimestre de cette année, avec une commercialisation prévue au deuxième trimestre, ce qui indique la sortie imminente des premières solutions grand public du géant de l'IA. Le concept d'une plateforme ARM grand public s'inscrit parfaitement dans la stratégie de NVIDIA visant à couvrir l'ensemble de l'écosystème de l'IA. L'entreprise ambitionne en effet d'offrir des performances IA de pointe avec les N1 et N1X, les positionnant ainsi comme une plateforme haut de gamme pour le calcul IA. Concernant les spécifications, on sait seulement que les futurs processeurs ARM seront gravés en 3 nm par TSMC et présenteront une configuration similaire à celle du processeur GB10. Cela signifie que l'entreprise privilégiera l'efficacité énergétique et la capacité à exécuter des technologies basées sur l'IA plutôt que des performances extrêmes. Il sera intéressant de voir cette puce en action. (Lire la suite)
  •  

{ Tribune Expert } – La crypto-agilité, le futur à envisager dès aujourd’hui

En 2024, le cabinet Gartner déclarait que les organisations devaient commencer leur transition vers l’informatique quantique car le chiffrement asymétrique ne sera plus sécurisé dès 2029 et totalement déchiffrable d’ici à 2034. C’est également dans cette optique que l’ANSSI a déclaré cette année que les solutions qui ne seraient pas résistantes face à la menace quantique ne seraient plus conformes et certifiées par l’agence.

Ces prises de position laissent entendre que l’informatique quantique sera bientôt une réalité, ouvrant d’incroyables perspectives d’innovation, de l’optimisation du trafic à l’accélération de la découverte de nouveaux médicaments. Toutefois, cette technologie ne séduit pas que des acteurs bien intentionnés. Les cybercriminels sont à l’affût, puisque les ordinateurs quantiques leur permettront de démanteler tous les systèmes de chiffrement qui protègent internet actuellement.

L’avenir de la menace : piller dès aujourd’hui pour déchiffrer demain

La majorité des chiffrements modernes dépendent d’algorithmes asymétriques pour l’échange de clés de session. Leur sécurité repose ainsi sur le fait que les ordinateurs actuels sont incapables de factoriser le produit de deux très grands nombres premiers dans un délai raisonnable.

Les plus grands ordinateurs quantiques actuels comptent 1 000 qubits et ne sont stables que pendant une à deux millisecondes. Ils ne présentent donc aucun risque contre les algorithmes les plus courants pour l’échange de clés. Cependant, un ordinateur quantique doté d’environ 20 millions de qubits physiques stables pourrait déchiffrer ces algorithmes d’échange de clés en environ huit heures, grâce aux étonnantes propriétés de la physique quantique. Et les acteurs malveillants se préparent déjà activement à profiter de ces capacités.

À l’aube de cette nouvelle menace, l’approche des cybercriminels suit une logique simple : piller un maximum de données dès aujourd’hui pour les déchiffrer demain, lorsque la technologie le leur permettra.

En effet, tout ce qui est publié sur en ligne est enregistré, et les attaquants interceptent et stockent d’ores et déjà ces informations encore impossibles à exploiter, dans l’espoir de pouvoir les déchiffrer sans effort d’ici quelques années.

Beaucoup d’experts du secteur estiment que dans six ou huit ans un ordinateur quantique suffisamment puissant et stable pour une utilisation généralisée devrait exister. Une fois que ce sera le cas, toutes les données mises de côté par les cybercriminels deviendront accessibles, ce qui pourrait avoir des conséquences dévastatrices.

Renforcer la crypto-agilité

La cryptographie post-quantique repose sur divers types de problèmes suffisamment complexes pour tenir tête aux capacités de ces nouvelles machines.

Une nouvelle génération d’outils de chiffrement basés sur des algorithmes quantiques sécurisés approuvés par l’Institut américain des normes et de la technologie (NIST) et par l’ANSSI et conçus pour résister aux attaques menées à l’aide d’ordinateurs quantiques se développent. Toutefois, le déploiement d’algorithmes quantiques sécurisés ne se résume pas à une simple mise à niveau des systèmes de sécurité ni à un changement réalisable en 24 h. Il est nécessaire dès aujourd’hui, pour les organisations, d’œuvrer au renforcement de la crypto-agilité.

Cette dernière désigne une capacité à changer rapidement et en toute sécurité les méthodes de chiffrement chaque fois qu’apparaissent de nouvelles menaces, et cela sans perturbation des workflows ni dépassement de budget. Fini le temps où les dirigeants se contentaient d’installer un système de protection pour ne plus y penser.

À mesure que les algorithmes de chiffrement post-quantique (PQC) existants et à venir commenceront à apparaître dans les produits, les paramètres par défaut évolueront et les menaces prendront de nouvelles formes. Si les organisations n’ont pas commencé à développer leur agilité d’ici là, la transition risque d’être rude.

Tous les directeurs techniques, DSI et autres responsables de la sécurité informatique doivent dresser au plus vite un état des lieux de leur infrastructure numérique et se poser la question : « Quels sont les systèmes chiffrés vulnérables ? » La réponse n’ira pas toujours de soi.

Il convient avant tout de se concentrer sur les données circulant hors de l’organisation. Les attaquants qui pillent des données en vue d’un déchiffrement futur ciblent en priorité les données en mouvement, circulant sur internet, entre différents services ou dans le cloud.

Les données confinées à un réseau bien défendu présentent généralement moins de risques, du moins pour l’instant. Comme les flux de données externes constituent la plus grande exposition quantique, c’est sur eux que doivent porter les efforts en priorité, que ce soit en interne ou dans les relations avec les prestataires et fournisseurs.

L’amélioration de la crypto-agilité ne doit pas se cantonner aux fichiers et dossiers. L’objectif est de préserver l’intégrité de chaque handshake de connexion, de chaque en-tête et de chaque dépendance cachée dans la pile. Tout élément touché, traversé ou habité par des données doit être passé au crible de l’imminence quantique.

L’agilité comme avantage stratégique

Les entreprises qui misent tout sur l’IA et les données ne pourront pas faire l’impasse sur la résilience quantique. Les données ne pourront effectivement nourrir leur croissance que si elles restent durablement sécurisées, conformes et fiables. La PQC relève ainsi d’une logique de préparation au futur plutôt que d’une simple posture de défense. Son adoption montre la capacité à projeter l’activité dans un avenir reconfiguré, où il serait catastrophique de ne pas pouvoir garantir l’intégrité des données.

Heureusement, des pistes d’action sont déjà disponibles. Il y a un an, le NIST publiait sa première série de normes PQC. Le mécanisme d’encapsulation de clés basé sur un réseau de modules (ML-KEM, anciennement CRYSTALS-Kyber), norme par défaut pour l’échange de clés, remplacera les algorithmes RSA et ECC pour sécuriser le chiffrement TLS à long terme. Toutefois, la sécurité dépend également des interactions externes. Il est essentiel de collaborer avec des fournisseurs et partenaires cloud au fait des dernières normes de sécurité quantique et utilisant des algorithmes certifiés et fiables.

Afin de se préparer au mieux face à la menace quantique, les organisations doivent commencer par passer en revue leurs systèmes en recensant précisément tous les outils où le chiffrement est utilisé, en gardant à l’esprit que les vulnérabilités se trouvent souvent dans les intervalles. C’est pourquoi il est crucial d’intégrer dès aujourd’hui le principe des algorithmes quantiques sécurisés dans toutes les initiatives de sécurité.

En externe, être intransigeant avec les prestataires et fournisseurs sera primordial, en leur ne se contentant pas de leur demander s’ils envisagent des initiatives PQC mais en exigeant de savoir comment et à quelle échéance ils comptent les mettre en œuvre. Car, une fois que l’informatique quantique aura franchi le cap du potentiel pour devenir une réalité, il sera trop tard pour protéger les données déjà exposées.

*Stanley Nabet est Country Manager France chez Netskope

The post { Tribune Expert } – La crypto-agilité, le futur à envisager dès aujourd’hui appeared first on Silicon.fr.

  •  

Créer sa boîte en 48h dans toute l’UE : la promesse choc de Bruxelles pour changer la vie des entrepreneurs

En marge du Forum économique mondial de Davos, le 20 janvier 2026, la présidente de la Commission européenne, Ursula von der Leyen, a officialisé la création d’EU‑INC, un projet attendu par de nombreux entrepreneurs européens qui vise à instaurer une seule forme de société paneuropéenne, avec un registre unique et des règles standardisées, pensée sur mesure pour les startups et scale‑ups du continent.​

  •  

Actualité : Netflix : cette fonctionnalité très attendue arrive enfin sur la plateforme de streaming

Après des mois d'annonces et de promesses, une fonctionnalité très attendue fait enfin son arrivée chez le géant du streaming : le vote en temps réel ! Cette nouvelle mécanique permettra d'influer sur le déroulement d'un programme en direct diffusé sur Netflix via son smartphone.Nouveautés Netflix : les films et séries à ne pas manquer en janvier 202...

  •  

Actualité : Avast : –60 % sur Premium Security et Ultimate… promo à saisir avant la fin !

En 2026, la question n’est plus de savoir s’il faut protéger ses appareils, mais comment le faire face à des cybermenaces toujours plus sophistiquées. En effet, les arnaques assistées par l’intelligence artificielle se multiplient, tout comme les ransomwares qui ciblent nos données personnelles. Dans ce contexte, les protections natives ne suffisent...

  •  

Google Flow : L’IA vidéo Veo 3.1 débarque dans Google Workspace pour tous les pros !

Google ouvre un nouveau chapitre pour la création vidéo assistée par IA : Flow, son outil de « filmmaking » génératif, sort du club des abonnés Pro/Ultra pour débarquer dans Google Workspace. Une bascule qui dit beaucoup de l’époque : l’IA vidéo n’est plus seulement un jouet de créateurs, elle devient un outil de production pour les entreprises, les […]

L’article Google Flow : L’IA vidéo Veo 3.1 débarque dans Google Workspace pour tous les pros ! est apparu en premier sur BlogNT : le Blog des Nouvelles Technologies.

  •  

Comment OpenAI façonne son modèle économique au fil du « compute »

Une opération de communication pour lever les doutes sur le modèle modèle économique et clarifier les perspectives de croissance, c’est le sens du long billet de blog publiée par Sarah Friar, la directrice financière d’OpenAI, sous le titre  » Une entreprise qui évolue en fonction de la valeur de l’intelligence ».

Si l’inventeur de ChatGPT capte une grande partie de la lumière du business de la GenAI depuis trois ans, il cristallise aussi les inquiétudes sur les investissements faramineux et les craintes sur un déficit de ROI qui pourraient faire éclater « la bulle de l’IA » alimentée par les investissements titanesques dans les infrastructures.

Pour rassurer sur la capacité d’OpenAI à créer de la valeur, Sarah Friar révèle que les revenus annualisés ont bondi de 2 milliards $ en 2023 à plus de 20 milliards en 2025. Une multiplication par dix en deux ans ! Et de préciser que cette explosion des revenus est proportionnelle à celle de la puissance de calcul déployée à coup de centaines de milliards investis dans les infrastructures.

Le compute, moteur de la croissance

« Notre capacité à servir nos clients se mesure directement à notre puissance de calcul disponible », écrit Sarah Friar. Les chiffres parlent d’eux-mêmes : la capacité de calcul d’OpenAI est passée de 0,2 gigawatt en 2023 à 0,6 GW en 2024, pour atteindre environ 1,9 GW en 2025. Soit une multiplication par 9,5 en deux ans, avec un triplement annuel.

Cette corrélation parfaite entre infrastructure et revenus dessine le modèle économique d’OpenAI. « Il s’agit d’une croissance jamais vue à une telle échelle », affirme la directrice financière, qui ajoute que davantage de compute aurait permis une adoption et une monétisation encore plus rapides.

Partie des abonnements grand public, l’entreprise a progressivement étendu son offre aux entreprises, avant d’ajouter une tarification à l’usage pour les développeurs via son API. « Au fur et à mesure que l’IA s’intégrait dans les équipes et les workflows, nous avons créé des abonnements professionnels et ajouté une tarification basée sur l’usage, afin que les coûts évoluent avec le travail réellement effectué », explique-t-elle.

La semaine dernière, OpenAI a franchi un nouveau cap en annonçant l’introduction de publicités dans ChatGPT pour certains utilisateurs américains. Elle devrait également dévoiler son premier « produit Hardware » au second semestre 2026, comme l’a rapporté Axios en début de semaine.

Sarah Friar évoque de nouveaux modèles économiques au-delà des abonnements et des API : licences, accords basés sur la propriété intellectuelle et tarification basée sur les résultats. « À mesure que l’intelligence s’étend à la recherche scientifique, la découverte de médicaments, les systèmes énergétiques et la modélisation financière, de nouveaux modèles économiques émergeront », prédit-elle.

2026 : l’année de « l’adoption pratique »

L’année 2026 sera celle de « l’adoption pratique », annonce la directrice financière. « La priorité est de combler l’écart entre ce que l’IA rend désormais possible et la façon dont les gens, les entreprises et les pays l’utilisent au quotidien », écrit-elle.

L’opportunité se révèle particulièrement importante dans trois secteurs : la santé, les sciences et l’entreprise, où une meilleure intelligence se traduit directement par de meilleurs résultats. OpenAI mise sur une nouvelle génération d’agents intelligents et l’automatisation des workflows, capables de fonctionner en continu, de conserver le contexte dans le temps et d’agir sur différents outils.

Une stratégie d’infrastructure diversifiée

Face aux critiques sur ses dépenses massives, Sarah Friar défend une approche pragmatique. OpenAI maintient un bilan « léger » en privilégiant les partenariats plutôt que la propriété. Il y a trois ans, l’entreprise dépendait d’un seul fournisseur de compute. Aujourd’hui, elle collabore avec un écosystème diversifié de partenaires, incluant Microsoft, Oracle et d’autres acteurs.

Ce changement apporte de la certitude sur l’accès au compute. « Nous pouvons planifier, financer et déployer de la capacité avec confiance dans un marché où l’accès au compute définit qui peut passer à l’échelle », explique-t-elle.

Cette diversification permet à OpenAI de concentrer ses ressources sur l’innovation tout en conservant l’agilité nécessaire pour naviguer dans l’évolution rapide du secteur.

« L’infrastructure élargit ce que nous pouvons offrir. L’innovation étend ce que l’intelligence peut faire. L’adoption étend qui peut l’utiliser. Les revenus financent le prochain bond en avant », conclut Sarah Friar.

The post Comment OpenAI façonne son modèle économique au fil du « compute » appeared first on Silicon.fr.

  •  
❌