Vue lecture

Test Hot Stakes Casino - American Roulette (PS5) - faites vos jeux, rien ne va plus

Développé par eastasiasoft, Hot Stakes Casino : American Roulette vous place devant une roulette colorée, où vous devrez tenter de remporter le plus de gains possible. Pour cela, il vous faudra de la chance, de la ruse et peut-être même quelques pouvoirs spéciaux. Mais cela ne suffira peut-être pas à vous amuser. Le monde des jeux de hasard ne laisse personne indifférent : on l’aime ou on le déteste. Il recèle des défis qui requièrent différents niveaux de compétence : au poker et au blackjack, il faut allier chance et stratégie, tandis que les machines à sous, par exemple, reposent presque exclusivement sur le facteur C. Entre les deux, on trouve la roulette, une roue numérotée de 0 à 36 avec une bille qui tourne . Les joueurs doivent miser sur des numéros, des couleurs ou des combinaisons de ceux-ci, en essayant de maximiser leurs mises. Plus la gamme choisie est large, plus le multiplicateur du gain potentiel est faible. C'est le mécanisme classique qui récompense les audacieux, peut-être favorisés par la chance. Et c'est précisément ce principe qui régit Hot Stakes Casino : American Roulette, un jeu qui ne cache pas ses intentions. Vous vous retrouverez assis à une table verte, avec une mise de départ limitée que vous pourrez augmenter en misant sur les numéros tirés. Les variables présentes sont les classiques de la vie réelle, à une exception près. Chaque personnage jouable est doté d'un pouvoir spécial, utilisable trois fois au maximum. Si vous pensez que cela ne suffira pas à divertir les amateurs de jeux vidéo modernes, vous avez déjà partiellement répondu à la question, comme vous l'avez probablement déjà constaté. Hot Stakes Casino : American Roulette tente d'offrir aux passionnés de roulette le frisson du jeu, sans risque de perdre de l'argent réel. Peut-être que perdre les 4,99 € dépensés pour l'acheter sur la boutique suffira à vous décevoir. (Lire la suite)
  •  

YouTube souhaite devenir un service de messagerie.

YouTube a lancé une expérience avec une nouvelle fonctionnalité qui permet aux utilisateurs d'envoyer des messages directement depuis l'application et de partager des vidéos au sein de la plateforme. Le géant du streaming vidéo, propriété de Google, cherche à simplifier le partage et la discussion de contenu en supprimant le recours à des applications tierces de partage de liens. Auparavant, les utilisateurs devaient copier les liens vidéo et les partager par messagerie instantanée ou e-mail ; la nouvelle solution permet d'intégrer l'ensemble du processus dans une seule application. La nouvelle fonctionnalité de partage et de messagerie est actuellement testée en Irlande et en Pologne. Elle est accessible aux personnes de 18 ans et plus connectées à leur compte YouTube. Une fois activée dans l'application mobile, elle permet d'envoyer des invitations à partager des vidéos, que les autres utilisateurs peuvent accepter ou refuser. L'expérimentation permet également de consulter les conversations dans l'onglet Messages, accessible en appuyant sur l'icône de cloche de notification. Les utilisateurs peuvent supprimer des conversations ou bloquer des expéditeurs s'ils ne souhaitent plus recevoir de messages. Cette nouvelle fonctionnalité prend en charge les vidéos courtes et longues, ainsi que les diffusions en direct. YouTube avait déjà expérimenté un système de messagerie instantanée, lancé en 2017 puis abandonné. La fonctionnalité actuelle semble répondre aux demandes répétées des utilisateurs qui réclamaient depuis des années un moyen simple de mettre en ligne des vidéos et de participer à des discussions sans quitter l'application. Spotify a fait de même en intégrant la messagerie directe à son application. YouTube, de son côté, s'appuie sur l'expérience d'autres plateformes de médias sociaux et de streaming pour créer une solution intégrée regroupant les fonctions de partage et de communication. YouTube n'a pas encore annoncé la date de disponibilité de cette fonctionnalité dans d'autres pays ni si elle deviendra une composante standard de l'application pour tous les utilisateurs. L'entreprise souligne que ces tests sont expérimentaux et que les décisions concernant le déploiement ultérieur de la fonctionnalité dépendront des retours des participants et du suivi du comportement des utilisateurs. (Lire la suite)
  •  

Un retraité a dérobé des secrets taïwanais. Il travaille désormais pour Intel.

TSMC se retrouve une nouvelle fois au cœur d'une enquête pour vol de technologie de semi-conducteurs. Pour la deuxième fois cette année, un scandale lié à la fuite illégale d'informations concernant les procédés de fabrication de circuits intégrés de 2 nm a éclaté. Cette fois, la cible est Lo Wei-ren, 75 ans, ancien vice-président de la recherche et du développement, récemment retraité. D'après le Liberty Times, l'entreprise rassemble des preuves concernant un possible détournement de données technologiques clés, ce qui pourrait profiter considérablement à ses concurrents. Après avoir quitté l'entreprise, Lo Wei-ren a rejoint Intel, alimentant ainsi les soupçons. TSMC n'a pas encore commenté officiellement ces allégations, mais des sources taïwanaises indiquent que l'affaire est considérée comme une menace pour la sécurité nationale. De précédentes tentatives de vol d'informations relatives au procédé de gravure de 2 nm ont donné lieu à des poursuites judiciaires et à des accusations contre des employés, qui ont été licenciés durant l'été 2025. Les autorités gouvernementales ont interdit la production de puces de 2 nm hors de Taïwan en 2024. Le maintien du contrôle sur cette technologie est devenu une priorité politique et économique. Lo Wei-ren a dirigé des départements opérationnels et de recherche clés chez TSMC pendant plus de vingt ans. Son départ à la retraite en juillet 2025 a été marqué par des célébrations, et l'entreprise a reconnu son immense contribution au développement des technologies de procédés. La situation a pris une autre tournure à l'automne, lorsqu'il a été révélé que l'ancien vice-président avait rejoint Intel en tant que directeur de la recherche et du développement. On ignore s'il était lié par une clause de non-concurrence. Le tollé général est venu des informations selon lesquelles, avant même son départ, il avait demandé à ses subordonnés de préparer des copies exhaustives de documents internes concernant les procédés 2 nm, A16 et A14. La technologie 2 nm représente une avancée majeure dans la production mondiale de semi-conducteurs. IBM a été la première entreprise à présenter des prototypes fonctionnels en 2021. TSMC a entamé ses recherches en 2019 et a commencé à accepter les commandes en 2025. L'usine taïwanaise dédiée à cette technologie est déjà presque pleinement opérationnelle, avec des rendements de lots tests atteignant environ 60 %, ce qui permettra une production en série. Dans le même temps, Samsung s'efforce de maintenir son rythme de développement, tandis qu'Intel tente de rattraper son retard grâce au soutien gouvernemental . Cependant, les résultats d'Intel sont loin d'être satisfaisants : mi-2025, seule une petite fraction des puces utilisant le procédé 18A répondait aux critères requis. (Lire la suite)
  •  

Le créateur de Linux fait l'éloge des développeurs d'IA. Linus Torvalds crée à nouveau la surprise.

Après des années de critiques acerbes à l'égard des tendances de programmation contemporaines, Linus Torvalds s'est exprimé positivement sur les développeurs utilisant ce qu'on appelle le codage Vibe. Ce phénomène consiste à créer des logiciels en envoyant des commandes en langage naturel à des modèles neuronaux. Le code résultant est le fruit du traitement de ces commandes, et non du travail manuel du programmeur. Le terme « programmation intuitive » a été inventé par Andrej Karpathy, connu pour ses travaux chez OpenAI et la promotion d'outils basés sur l'intelligence artificielle générative. Torvalds a qualifié son approche de « plutôt positive », surprenant la communauté qui se souvenait de sa résistance de longue date à l'adoption rapide de nouvelles pratiques. Parallèlement, il a fixé une limite à l'acceptabilité du codage Vibe. Il estimait que ceux qui utilisaient cette méthode ne devaient avoir aucune influence sur les projets dépendant de la stabilité des systèmes critiques. Dans des déclarations ultérieures, Torvalds a expliqué que le problème des projets sensibles réside dans la maintenance ultérieure du code, lorsque sa structure et son processus de développement sont moins transparents. Il n'a pas précisé les domaines concernés, mais a suggéré que l'accès au noyau Linux ne devrait pas être confié à des programmeurs utilisant uniquement des techniques génératives. Torvalds a également précisé qu'il n'avait pas encore testé lui-même le code de Vibe. Depuis vingt ans, il se consacre à son rôle de chef de projet Linux, intégrant les modifications, évaluant les propositions des développeurs et publiant les nouvelles versions du noyau. Il affirme parfois que l'écriture de code ne représente plus une part importante de ses responsabilités, même s'il ne s'y tient pas toujours. Le créateur de Linux a souligné le nombre croissant de faux rapports de sécurité et de bogues générés par une mauvaise utilisation de l'intelligence artificielle. Il a décrit des cas où du code téléchargé depuis kernel.org par des réseaux neuronaux a conduit à des interprétations et des alertes erronées. Il a toutefois insisté sur le fait que la situation est moins grave dans le noyau Linux que dans d'autres projets open source. Il a cité cURL, un outil en ligne de commande très répandu pour le transfert de données via les protocoles Internet, comme exemple. Ces dernières années, ses développeurs ont été confrontés à un nombre croissant de rapports erronés générés par des outils d'IA. Torvalds a reconnu que des années de travail avaient modifié son approche du développement du noyau. Auparavant, il était connu pour son rejet systématique de nombreuses propositions, notamment celles qui allaient à l'encontre de sa vision de l'intégrité du code. Désormais, il autorise des solutions auxquelles certains développeurs expérimentés s'opposent. Rust, considéré comme un langage plus sûr que le C traditionnel, en est un exemple. Torvalds a longtemps soutenu les détracteurs de Rust , mais a finalement accepté son intégration au noyau. Il a déclaré que Rust n'était plus une expérience , mais qu'il devenait une composante à part entière du projet. Ce changement ne remet pas en cause son approche rigoureuse de l'architecture et de la qualité du code. Ces dernières années, il a critiqué publiquement à plusieurs reprises des solutions qu'il jugeait imparfaites. En avril 2025, il a autorisé la suppression de nombreux systèmes de fichiers essentiels, provoquant un vif débat parmi les développeurs. En août de la même année, il a qualifié le code de l'architecture RISC-V de destructeur, alors même que de nombreuses entreprises considèrent cette architecture comme une future concurrente des architectures x86 et ARM. La relation ambiguë de Torvalds avec Rust a refait surface en juin 2025. Il a suspendu le compte de Kees Cook , l'un des principaux défenseurs du langage au sein du projet Linux, pour avoir utilisé un lien vers un dépôt contenant de fausses informations sur les auteurs des commits. Cook a publié un message laissant entendre que Torvalds avait contribué à ces modifications, alors qu'il n'y avait absolument pas participé. (Lire la suite)
  •  

La panne d'Internet n'est pas due à une attaque. Cloudflare explique cette coupure mondiale.

Mardi matin, une grande partie d'Internet était hors service ou présentait des dysfonctionnements . Cette perturbation a affecté certains des services les plus populaires, notamment ChatGPT, Claude, Spotify et la plateforme X. La cause de cette panne s'est avérée être une défaillance majeure de l'infrastructure de Cloudflare, une entreprise qui gère une part importante du trafic Internet mondial. Vers 14 h, Cloudflare a annoncé sur sa page d'état que la cause de l'instabilité avait été identifiée et qu'un correctif était en cours de déploiement. Moins de deux heures plus tard, l'entreprise a annoncé que l'incident était résolu, tout en précisant que la surveillance restait active afin de garantir la stabilité de tous les composants. Pendant que les correctifs étaient en cours, Dane Knecht, directeur technique de Cloudflare, a présenté ses excuses aux utilisateurs et partenaires sur la plateforme X. Il a expliqué que les problèmes provenaient d'un bug caché dans le service responsable des mécanismes de protection contre les bots. Après une modification de configuration de routine, le service a commencé à planter, entraînant des répercussions sur le réseau et d'autres systèmes connexes. Knecht a souligné qu'il ne s'agissait ni d'une attaque ni d'un acte délibéré d'un tiers. Le bug ne s'est pas manifesté lors des tests, n'a provoqué aucune panne antérieure et est resté invisible jusqu'à une modification de la configuration. Le directeur technique a ajouté que l'entreprise assume la responsabilité des conséquences de cette interruption de service, tant pour ses clients que pour l'ensemble du réseau, et qu'elle prend déjà des mesures pour éviter qu'un incident similaire ne se reproduise. Il a également annoncé la publication d'un rapport technique plus détaillé. Malgré le correctif, certains utilisateurs rencontraient encore des difficultés pour se connecter au tableau de bord Cloudflare et utiliser certaines fonctionnalités. L'entreprise a continué à renforcer sa surveillance et à travailler à la résolution des problèmes restants. L'ampleur de la perturbation a clairement démontré à quel point le réseau moderne dépend d'un petit nombre de fournisseurs d'infrastructure. Quelques semaines auparavant, Amazon Web Services avait subi une panne similaire, affectant l'écosystème mondial des services et applications. Cela montre comment les problèmes rencontrés par une seule entreprise peuvent impacter la stabilité de pans entiers d'Internet. Selon les estimations du secteur, Cloudflare alimente environ un cinquième des sites web. L'entreprise possède des centres de données dans 330 villes et assure des connexions directes à 13 000 réseaux, parmi lesquels figurent les principaux fournisseurs d'accès à Internet, les grandes plateformes cloud et les entreprises qui utilisent son infrastructure. L'un des principaux atouts de Cloudflare est sa protection contre les attaques DDoS, qui visent à perturber la disponibilité des sites web et des applications. Ironie du sort, les incidents de mardi ont touché une entreprise qui protège régulièrement ses clients contre ce type de perturbations. (Lire la suite)
  •  

La pénurie de mémoire paralyse le marché. NVIDIA et AMD envisagent d'arrêter la production de leurs GPU les plus populaires.

Le marché informatique traverse une crise depuis quelques semaines, touchant tous les acteurs, des fabricants d'ordinateurs portables aux joueurs qui assemblent leurs propres PC. Plusieurs rapports en provenance de Corée et de Taïwan indiquent que la flambée des prix de la DRAM, de la NAND et même de la mémoire flash NOR, moins souvent mentionnée, s'accélère suffisamment pour déstabiliser l'ensemble du secteur. Selon le Korea Economic Daily, NVIDIA, AMD et d'autres fabricants de GPU envisagent d'arrêter la production de certaines cartes graphiques de milieu et haut de gamme, car le coût de la mémoire représente désormais une part exceptionnellement élevée du coût total des composants. Ce n'est pas la première fois que l'on entend dire que la hausse des prix de la mémoire impactera non seulement la RAM et les SSD, mais aussi les cartes graphiques, composants essentiels pour les joueurs. Nous avons déjà appris que NVIDIA et AMD prévoient d'augmenter les prix de leurs cartes graphiques . D'après le Commercial Times, les principales marques taïwanaises, dont ASUS, envisagent de réduire la capacité de mémoire par défaut de leurs futurs ordinateurs portables et PC pré-assemblés. Cette décision est motivée par la hausse actuelle des prix de la RAM et de la mémoire NAND, car de nouvelles augmentations pourraient rendre certains produits inabordables. TrendForce prévoit que les fabricants réorienteront leur production vers des modèles à plus forte marge, augmenteront les prix de l'ensemble de leurs gammes, réduiront leurs commandes de composants et même abaisseront les spécifications des ordinateurs d'entrée et de milieu de gamme. Par conséquent, les utilisateurs qui achèteront un ordinateur portable ou de bureau en 2026 pourraient constater une réduction de la mémoire vive à prix égal ou être contraints de payer plus cher pour des configurations qui étaient auparavant la norme. Parallèlement, la disponibilité des trois principaux types de mémoire (DRAM, mémoire flash NAND et mémoire flash NOR) diminue. La DDR4, utilisée dans les conceptions plus anciennes et moins coûteuses, est particulièrement menacée. Les fournisseurs accélèrent son retrait du marché et réorientent leurs lignes de production vers des normes plus récentes. Selon WJ Capital Perspective, la pénurie de DDR4 atteindra 70 000 plaquettes d'ici fin 2025 et la situation restera tendue en 2026. La mémoire flash NOR devient elle aussi de plus en plus chère. La raison ? L’intelligence artificielle, bien sûr. Le système NVIDIA GB200 NVL72 utilise de la mémoire flash NOR et coûte plus de 600 $ par rack ; d’ici deux ans, ce prix pourrait atteindre 900 $. Les serveurs consomment d’énormes quantités de mémoire, reléguant ainsi le marché grand public au second plan. Mais tout n'est pas perdu : selon le Commercial Times, certains fabricants de cartes mères et d'ordinateurs portables (ODM) ont suspendu le développement de nouveaux modèles ou réduit leur production en série. La hausse du prix de la mémoire rend soudainement de nombreux projets non rentables. Par ailleurs, le secteur a été secoué par des informations selon lesquelles AMD prévoit d'augmenter les prix de ses GPU , Samsung augmente ses prix de mémoire jusqu'à 60 % et les principaux constructeurs modifient leurs plans de production pour l'année prochaine. (Lire la suite)
  •  

Microsoft Azure a bloqué la plus grande attaque DDoS de l'histoire. 500 000 appareils n'ont pas pu y faire face.

Microsoft a annoncé que sa plateforme cloud Azure a repoussé avec succès la plus importante attaque par déni de service distribué (DDoS) jamais enregistrée, qui a atteint un débit de pointe de 15,72 térabits par seconde. L'attaque ciblait un point d'accès unique en Australie et provenait du botnet Aisuru, composé de plus de 500 000 objets connectés (IoT) infectés. À titre de comparaison, cela équivaut à la diffusion simultanée de 3,5 millions de vidéos Netflix. L'attaque a généré plus de 3,6 milliards de paquets par seconde, ce qui en fait non seulement la plus importante en termes de bande passante, mais aussi l'une des plus intenses de l'histoire. Microsoft assure que le système de protection DDoS Azure a filtré avec succès le trafic malveillant, évitant ainsi toute interruption des services clients. L'entreprise recommande toutefois aux organisations et aux utilisateurs de veiller à la sécurité de leurs appareils connectés à Internet, notamment ceux utilisés à domicile, tels que les caméras, les routeurs, les thermostats et les sonnettes vidéo. Les experts alertent sur l'intensification et la brièveté croissantes des attaques DDoS, comparables à des cyberattaques éclair, ce qui complique la réponse des systèmes de défense. Selon l'analyste Sunil Varkey, ce problème est mondial et résulte d'un manque de bonnes pratiques de cybersécurité, tant chez les fabricants et les fournisseurs de services que chez les utilisateurs eux-mêmes. Face à la multiplication des menaces, Microsoft et les experts en sécurité recommandent une protection multicouche, des tests de résistance aux attaques DDoS et la surveillance du trafic réseau. Cependant, c'est toujours mieux que de simplement couper le réseau… (Lire la suite)
  •  

Le processeur Intel Core Ultra X7 358H a affiché des résultats de tests de performance décevants.

Il y a quelques jours, le processeur Intel Core Ultra X7 358H (Panther Lake) est apparu pour la première fois dans la base de données PassMark, mais seuls deux échantillons avaient été testés à l'époque, ce qui expliquait des résultats peu concluants. Désormais, grâce à l'ajout d'un autre processeur de pré-production, les résultats se sont nettement améliorés. L'écart de performances entre le 358H et le 255H s'est réduit, le 358H prenant même l'avantage. Cependant, les performances restent modestes : l'Ultra X7 358H accuse un retard de 1,4 % sur le Core Ultra 7 255H en monocœur et un avantage de seulement 4 % en multicœur. Ces résultats pourraient évoluer à l'avenir, une fois que davantage d'échantillons auront été testés et que les données seront plus précises. La fréquence turbo de 4,8 GHz a également été confirmée, mais la fréquence de base n'est pas encore disponible. Les gains de performance d'une génération à l'autre semblent modestes comparés au passage du Core Ultra 7 155H au Core Ultra 7 255H, où ce dernier offrait des performances multithread supérieures de près de 20 % et des performances monothread comparables, malgré l'activation de l'Hyper-Threading sur le 155H. De ce fait, les premières impressions concernant Panther Lake ne sont pas particulièrement brillantes. Par ailleurs, le Core Ultra X7 358H diffère par sa configuration : il possède techniquement les mêmes 16 cœurs et 16 threads que le 255H, mais le X7 358H compte deux cœurs de performance en moins et deux cœurs LP-E supplémentaires. Ceci explique le gain de performance modeste. Selon Intel, les processeurs Panther Lake sont principalement axés sur une efficacité énergétique accrue. Cela explique beaucoup de choses. (Lire la suite)
  •  

L'iPhone 18 ne sera dévoilé qu'au printemps 2027.

Selon Mark Gurman de Bloomberg, Apple prévoit de scinder la gamme iPhone 18 en deux : les versions Pro seront lancées à l’automne 2026, tandis que les modèles de base arriveront au printemps 2027. Cette stratégie permettra à l’entreprise d’éviter une présentation trop spectaculaire lors de l’automne et de mieux répartir la charge de travail. Ainsi, l’année prochaine, Apple devrait dévoiler l’iPhone 18 Pro, l’iPhone 18 Pro Max, le très attendu iPhone Fold pliable, et peut-être de nouvelles montres connectées et des ordinateurs Mac. Au printemps 2027, l’entreprise lancera l’iPhone 18 de base, probablement l’iPhone 18e, successeur de l’iPhone 16e, et un successeur potentiel de l’iPhone Air. Cette approche en deux temps pour les annonces offre une bien plus grande flexibilité et réduit la pression opérationnelle au sein de l'entreprise. Concernant l'iPhone Air, selon des sources internes, sa production limitée en fait une plateforme idéale pour tester le matériel du futur iPhone pliable, qui devrait arborer un design similaire. Il avait été précédemment annoncé que l'iPhone Air serait dépourvu de son second module photo ; Apple estime que l'objectif grand angle n'est pas suffisamment populaire pour justifier sa présence. Nombre d'acheteurs potentiels, bien sûr, contestent cette affirmation ; pour beaucoup, un seul capteur photo à l'arrière sur un smartphone coûtant près de mille dollars est tout simplement insuffisant. Cependant, le constructeur pourrait revoir sa position à l'avenir. (Lire la suite)
  •  

Apple va commercialiser des coques avec écrans tactiles.

Apple n'a pas réussi à concrétiser le concept de smartphones modulaires, et les étuis accessoires dotés de fonctionnalités supplémentaires sont si rares que la plupart des utilisateurs ignorent leur existence. Cependant, une source interne d'Instant Digital affirme que l'entreprise prévoit d'investir massivement dans le développement d'une nouvelle génération d'étuis de protection propriétaires. L'objectif est de transformer l'étui en une surface tactile supplémentaire. Les détails de cette approche restent flous, mais il est peu probable qu'elle intègre un véritable second écran tactile, comme l'ont fait LG et Asus par le passé. De plus, la présence d'un pavé tactile similaire à ceux utilisés dans les claviers pour iPad n'a pas encore été confirmée. Ces coques devraient débloquer de nouvelles fonctionnalités pour les modèles iPhone Pro, les rendant encore plus performants. Les smartphones Apple disposent déjà de la fonction Contrôle de l'appareil photo – une zone tactile capacitive multifonctionnelle – mais cette fonctionnalité n'a pas rencontré un large succès. Il est probable qu'une telle coque représente une étape vers la disparition des boutons physiques, un projet qu'Apple nourrit depuis des années. Au lieu des boutons traditionnels, les actions pourraient être transférées vers des éléments tactiles intégrés directement à l'accessoire. L'entreprise possède même un brevet intitulé « Coque avec système d'entrée pour appareil électronique », qui décrit une idée similaire : l'accessoire est équipé d'un capteur électromécanique permettant d'exécuter des commandes sans appuyer sur les boutons du smartphone. (Lire la suite)
  •  

Des pirates informatiques s'attaquent aux systèmes de Logitech. Un vol de données de 1,8 To est confirmé.

Logitech a officiellement confirmé avoir été victime d'une cyberattaque ayant entraîné le vol de données de ses systèmes internes. L'incident a été déclaré dans un formulaire 8-K déposé auprès de la Securities and Exchange Commission (SEC) américaine. L'entreprise a indiqué que les attaquants avaient exploité une faille de sécurité zero-day dans une plateforme logicielle tierce. Cette faille a servi de principal point d'entrée dans l'infrastructure. Selon Logitech, une personne non autorisée a accédé à son système informatique interne et a copié certaines données. Cependant, aucune information précise n'est encore disponible concernant l'ampleur de l'incident, le nombre de victimes ou la quantité exacte de données divulguées. L'entreprise souligne que l'enquête est en cours et que l'incident est analysé en collaboration avec des experts en cybersécurité. Le groupe de ransomware Cl0p, connu pour exploiter les vulnérabilités des systèmes d'entreprise les plus utilisés, a revendiqué l'attaque. Ce même groupe avait déjà utilisé une faille zero-day dans Oracle E-Business Suite pour attaquer des dizaines d'entreprises à travers le monde. Dans le cas de Logitech, Cl0p affirme avoir dérobé environ 1,8 To de données. L'entreprise n'a pas précisé si elle avait reçu une demande de rançon ni la nature de ses échanges avec les cybercriminels. Logitech a confirmé que la plateforme concernée avait été corrigée suite à la publication d'un correctif par le fournisseur. Cependant, l'entreprise n'a pas expliqué pourquoi les attaquants ont pu opérer sur les systèmes pendant une période aussi longue ni combien de temps ils y sont restés avant que l'incident ne soit détecté. Les conclusions internes indiquent que les informations volées pourraient inclure des données d'employés, de consommateurs, de clients et de fournisseurs. Logitech précise qu'aucune donnée personnelle sensible, telle que les numéros d'identification et les informations de cartes de paiement, n'était stockée dans l'environnement concerné. Par conséquent, une violation de données est peu probable, même si une vérification complète ne sera possible qu'une fois l'audit terminé. L'entreprise a également admis que la faille de sécurité n'a été officiellement confirmée qu'après la publication de son nom sur le site web Cl0p, documentant les données obtenues. Le silence public de Logitech jusqu'alors laisse penser que l'entreprise a tenté de dissimuler la fuite le plus longtemps possible, ce qui n'augure rien de bon quant à sa réactivité en matière d'information des utilisateurs sur les incidents de sécurité. (Lire la suite)
  •  

Cette fonctionnalité d'IA de Windows 11 peut être dangereuse ; activez-la à vos risques et périls.

Microsoft intègre à Windows 11 des fonctionnalités d'intelligence artificielle dites « à base d'agents », conçues pour permettre aux applications d'IA d'exécuter des tâches de manière autonome pour l'utilisateur. L'entreprise met toutefois en garde contre les risques de sécurité importants liés à l'utilisation de cette option. Dans un nouveau document d'assistance, Microsoft précise que cette fonctionnalité sera désactivée par défaut et ne devrait être activée que par les utilisateurs conscients de ses conséquences potentielles. « N'activez cette fonctionnalité que si vous comprenez ses implications en matière de sécurité », indique le communiqué officiel. Une fois activée, cette fonctionnalité crée des comptes d'utilisateurs locaux pour les agents d'IA, leur donnant accès à des dossiers tels que Documents, Bureau, Images et Musique. Seul un administrateur peut l'activer, mais une fois activée, elle est accessible à tous les utilisateurs de l'appareil. Microsoft souligne que les agents d'IA fonctionnent dans un environnement isolé, mais ont accès aux applications et aux fichiers de l'utilisateur. Cela ouvre la voie à de nouvelles attaques, comme l'injection inter-invites. Dans ce type de situation, un contenu malveillant peut prendre le contrôle de l'agent et effectuer des actions non autorisées, telles que le vol de données ou l'installation de logiciels malveillants. Pour minimiser les risques, Microsoft prévoit de mettre en œuvre des mécanismes de surveillance de l'activité des agents, notamment des journaux d'activité et des audits infalsifiables. Les premières versions de test de cette fonctionnalité ont déjà été mises à la disposition des utilisateurs du programme Windows Insider. Aucune application ne l'utilise actuellement, mais cela devrait changer prochainement. Copilot sera le premier outil à prendre en charge cet environnement d'agents. (Lire la suite)
  •  

Les Chinois préparent un processeur à plus de 32 cœurs

Loongson, l'un des principaux fabricants de puces chinois, se prépare à la plus grande avancée technologique de son histoire. L'entreprise a confirmé avoir entamé le développement de sa famille de processeurs pour serveurs 3D7000, dont la sortie est prévue en 2027. Ces puces utiliseront un procédé de gravure inférieur à 10 nm et des chiplets dépassant la limite de 32 cœurs. Le projet 3D7000 s'impose comme l'un des piliers de la transformation technologique chinoise, qui vise à s'affranchir des fournisseurs occidentaux de matériel informatique. Loongson ambitionne de construire son propre écosystème informatique, comprenant serveurs, stations de travail, accélérateurs d'IA et équipements de calcul haute performance. La famille 3D7000 représente une évolution des processeurs Loongson actuels. Lors de la génération précédente, la société a lancé la série 3C6000, gravée en 12 nm. Ces puces utilisaient des chiplets à 16 cœurs, extensibles jusqu'à 64 cœurs dans des variantes à quatre chiplets, tout en conservant un TDP de 300 W. Parallèlement, le développement de la série 3D5000 pour stations de travail s'est poursuivi, avec des modèles allant jusqu'à 32 cœurs. La prochaine génération devrait doubler le nombre de cœurs par puce. Loongson indique que la conception des modules IP nécessaires à la production, utilisant le procédé X-nanomètre avancé, est en cours. Parmi les technologies clés figurent de nouvelles implémentations de boucles à verrouillage de phase, de registres multiports et de couches physiques (PHY) pour DDR5 et PCIe 5.0. L'introduction de chiplets à plus de 32 cœurs devrait permettre à Loongson d'atteindre un niveau où peu d'acteurs dominent actuellement. Sur le segment des serveurs, la concurrence viendra de la future architecture Zen 6 d'AMD, qui utilisera une puce classique à 12 cœurs et une puce haute densité à 32 cœurs. AMD prévoit de lancer ces solutions dès l'année prochaine, tandis que Loongson vise 2027-2028. L'entreprise chinoise n'a pas dévoilé de détails concernant l'architecture du 3D7000 ni les configurations de références prévues. Aucune information n'est disponible sur la fréquence d'horloge, le nombre de puces ou la consommation électrique estimée. On sait toutefois que sa conception devrait être l'une des plus complexes jamais développées par Loongson. Parallèlement au développement de sa nouvelle génération de processeurs pour serveurs, Loongson finalise sa puce graphique dédiée 9A1000. Cette puce est destinée au segment des PC compatibles avec l'IA. Le fabricant a confirmé que les pilotes Windows sont en cours de préparation et qu'une demande de test a été soumise. L'introduction du GPU 9A1000 et des processeurs 3D7000 s'inscrit dans une stratégie plus large visant à renforcer le marché intérieur chinois. Les composants matériels nationaux prennent progressivement le pas sur les solutions auparavant dominées par les États-Unis et l'Europe. L'annonce du 3D7000 marque le début de la stratégie de Loongson visant à construire une chaîne d'approvisionnement entièrement locale pour ses puces destinées aux systèmes industriels, au cloud computing et à l'IA. Le doublement de la densité de cœurs de ses chiplets devrait propulser l'entreprise parmi les leaders mondiaux de la fabrication de processeurs pour serveurs. (Lire la suite)
  •  

Les smartphones Samsung vont être équipés d'une application israélienne obligatoire. Les utilisateurs s'inquiètent des risques de perte de données.

Les réseaux sociaux sont inondés de publications affirmant que Samsung installe un logiciel espion israélien « inamovible » sur ses téléphones Galaxy (séries A et M). Au cœur de la polémique se trouve AppCloud, une plateforme marketing bien établie, conçue pour promouvoir d'autres applications. Cependant, les utilisateurs redécouvrent son existence et s'interrogent sur le respect de la vie privée et la transparence du constructeur. La polémique a débuté par une lettre ouverte adressée à Samsung par SMEX, une organisation de défense des droits numériques en Asie occidentale et en Afrique du Nord. Les auteurs exhortaient Samsung à cesser d'installer par défaut des logiciels superflus associés à l'entreprise israélienne. Cette lettre a rapidement alimenté les spéculations quant aux liens possibles entre AppCloud et la collecte de données par les États. L'application a été développée par la société israélienne ironSource, rachetée par l'entreprise américaine Unity, principalement connue pour ses outils de jeu et ses expériences interactives. Cependant, dans certains milieux géopolitiques, la simple mention de ses origines a suscité de vives réactions. SMEX affirme qu'AppCloud est profondément intégré au système et difficile à supprimer sans accès root. Une fois désactivé, il réapparaîtrait après les mises à jour, ce qui alimente les soupçons des utilisateurs soucieux de leur vie privée. L'accusation de manque de contrôle sur l'application est un thème récurrent dans les débats sur les pratiques des fabricants d'appareils mobiles. Parallèlement, des allégations non confirmées concernant le transfert de données d'utilisateurs vers des institutions liées à Israël ont fait surface en ligne. Cependant, l'absence de preuves n'a pas empêché les tentatives de construire un récit autour de ce prétendu logiciel espion. Le principal problème d'AppCloud ne réside pas dans sa fonction marketing en elle-même, mais plutôt dans l'absence d'une politique de confidentialité facilement accessible. Il est impossible de vérifier quelles données l'application est autorisée à collecter et à traiter, ce qui mine encore davantage la confiance des utilisateurs. Un autre élément à prendre en compte est la réputation d'ironSource. L'entreprise gérait auparavant le programme InstallCore, connu pour installer des composants indésirables et contourner les alertes de sécurité. Bien qu'AppCloud fonctionne selon un cadre différent, l'historique de l'entreprise est évoqué dès que des problèmes de confidentialité sont soulevés. Les pays membres de l'Alliance du Nord-Est de l'Inde (WANA), qui imposent des restrictions sur les produits israéliens, considèrent la présence d'AppCloud sur les téléphones du fabricant sud-coréen comme un enjeu politique. Dans un contexte de fortes tensions israélo-palestiniennes, tout élément lié à la technologie israélienne devient un sujet de débat public. La communauté demande à Samsung de réagir. Elle s'attend notamment à la suppression définitive d'AppCloud, à une documentation complète des données et à une déclaration claire affirmant que l'application n'est pas liée à la collecte d'informations par les autorités gouvernementales. Face à cette pression croissante, les observateurs du marché attendent une déclaration officielle du constructeur. Samsung garde le silence pour l'instant. Face à l'avalanche de spéculations, il semble probable qu'une déclaration soit nécessaire avant que la situation ne devienne incontrôlable. (Lire la suite)
  •  

Test Kotenok (PS5) - Un jeu de plateforme 2D sans fioritures

Développé par NipoBox, Kotenok est un jeu de plateforme et d'aventure 2D classique et basique, axé sur une série de 50 niveaux aux défis croissants. La première impression de Kotenok n'est pas des plus positives, et parlons plus précisément du choix et de la création de l'image de couverture. On y voit non seulement le protagoniste, déjà relativement anonyme, mais une image clairement créée par l'IA . Une image qui n'a même pas été retouchée après sa création, et qui se démarque des titres de plus en plus nombreux conçus exclusivement pour les trophées platine rapides. Une fois passée cette esthétique initiale, plutôt aliénante et peu attrayante, le titre propose une interface standard , froide et épurée. De fait, le jeu ne propose aucune narration. Il n'y a pas non plus de contexte, ni même une vague indication sur le protagoniste ou le décor. Rien. On nous présente un tableau composé de 50 cases. Chaque case est un défi. Notre objectif est donc très simple : aborder et terminer chaque niveau chronologiquement. Pour plus de détails, nous incarnons un petit chaton au pelage jaunâtre qui doit affronter une série de parcours se déroulant dans la même forêt. Le gameplay est très basique, utilisant du pixel art, et ne confère pas au jeu une réelle identité. Les ennemis et les pièges, eux aussi plutôt minimalistes et monotones, n'apportent pas grand-chose. Il nous faut maintenant nous pencher sur le gameplay pour voir s'il y a une once d'originalité ! (Lire la suite)
  •  

Internet en panne : Cloudflare paralyse une grande partie du Web

Une panne généralisée d'Internet est actuellement en cours en raison de problèmes avec Cloudflare. Pour ceux qui ne connaissent pas Cloudflare, il s'agit d'une plateforme de services web qui accélère et protège les sites web et les applications. Par conséquent, si Cloudflare est hors service, de nombreux sites web deviennent inaccessibles . Le problème a été identifié à 12h17, mais ce n'est qu'à 12h48 que la situation est devenue critique . Cloudflare a pris connaissance d'un problème susceptible d'affecter plusieurs clients et mène actuellement une enquête. Plus de détails seront communiqués dès que de nouvelles informations seront disponibles. Il est impossible de dresser une liste exhaustive des sites touchés par ce problème, précisément parce que Cloudflare est tellement répandu : de X , le réseau social d'Elon Musk, jusqu'aux sites les plus éloignés, personne n'est « à l'abri » . Un problème similaire s'est produit il y a quelques mois avec une interruption de service d'AWS , le service d'Amazon auquel beaucoup pensent également dans ce cas, mais ce ne devrait pas être de sa faute cette fois-ci. À 14 h 09, Cloudflare a annoncé avoir identifié le problème et qu'un correctif était en cours de déploiement. (Lire la suite)
  •  

Apple a enfreint des brevets et doit payer une amende colossale.

Apple a été condamnée à verser 634 millions de dollars à Masimo après avoir perdu un procès. Le tribunal a statué que le fabricant avait utilisé la technologie brevetée de Masimo pour la surveillance de l'oxygénation sanguine dans ses montres connectées. Masimo est spécialisée dans le développement de solutions de mesure des paramètres de santé à l'aide d'équipements non invasifs. Le scandale a éclaté après le lancement de l'Apple Watch Series 6, dotée d'une fonctionnalité permettant de mesurer le taux d'oxygène dans le sang. Selon Masimo, Apple aurait utilisé une technologie initialement conçue pour mesurer les signes vitaux des patients en milieu hospitalier. Apple a nié ces allégations, arguant que les brevets en question étaient tombés dans le domaine public. Toutefois, le litige porte non seulement sur la technologie elle-même, mais aussi sur le débauchage présumé d'employés de Masimo ayant accès à des informations confidentielles. Apple aurait utilisé des informations confidentielles obtenues lors de précédentes réunions avec Masimo concernant une éventuelle collaboration. Apple avait contacté Masimo en 2013 pour évaluer la possibilité d'utiliser sa technologie dans les montres connectées. Cependant, Masimo affirme qu'Apple a non seulement profité de ces réunions pour collecter des données, mais aussi pour s'approprier des secrets commerciaux confidentiels. Masimo a également porté plainte auprès de la Commission du commerce international des États-Unis (ITC). L'ITC a statué en faveur de Masimo, entraînant la suspension des ventes des Apple Watch Series 9 et Ultra 2 en 2023. Apple a dû retirer la fonction de surveillance de l'oxygène de ces modèles pour éviter une interdiction de vente aux États-Unis. L'organisation va maintenant enquêter afin de déterminer si le fabricant a recours à des solutions de contournement et continue d'enfreindre des brevets. Les résultats seront connus d'ici six mois. L'Apple Watch s'est forgée une réputation d'outil performant de surveillance de la santé, notamment pour la détection des problèmes cardiaques. Des études menées, entre autres, par l'université de Stanford, ont démontré l'efficacité de la montre connectée dans ce domaine. Bien qu'elle ne soit pas officiellement présentée comme un outil de dépistage médical, de nombreux utilisateurs s'en servent pour surveiller leur santé. Certains affirment même que l'Apple Watch leur a sauvé la vie en détectant des risques pour leur santé. (Lire la suite)
  •  

153 000 personnes licenciées en un mois à cause de l’IA. Un chiffre record aux États-Unis.

Les entreprises américaines traversent l'une des périodes les plus difficiles depuis la Grande Récession. Fin octobre 2025, 153 000 licenciements ont été annoncés, un chiffre record pour ce mois depuis vingt ans. L'ampleur de la situation est d'autant plus préoccupante qu'elle se détériore rapidement. Les licenciements ont augmenté de 175 % par rapport à l'année précédente et de 183 % par rapport à septembre. Plus d'un million de personnes ont perdu leur emploi depuis janvier. Le ralentissement économique touche divers secteurs, de la logistique aux technologies. Selon les données de Challenger, Gray & Christmas, les magasiniers, les informaticiens, les employés de la restauration et les agents de la fonction publique ont été parmi les plus durement touchés en octobre. Un climat d'instabilité s'installe sur le marché. Cette situation est alimentée par le ralentissement de la consommation, la prudence des entreprises et l'impact des technologies, qui accélèrent l'automatisation des processus et modifient la demande de main-d'œuvre. Les analyses révèlent une nette accélération du déploiement des solutions basées sur l'IA. Les entreprises qui considéraient l'automatisation comme un projet secondaire il y a encore quelques années l'intègrent désormais à leurs activités principales. Les besoins en personnel évoluent et de nombreux postes routiniers disparaissent plus rapidement que ne le prévoyaient même les analystes les plus pessimistes. C'est particulièrement vrai dans les secteurs qui ont considérablement augmenté leurs effectifs pendant la pandémie. Dans le même temps, les embauches prévues sont en baisse. Les prévisions pour 2025 sont les plus basses depuis 2011. L'emploi saisonnier connaît sa pire performance jamais enregistrée. Le marché du travail américain entre dans une phase de mutation structurelle, avec une demande croissante de spécialistes en analyse de données, en architecture système et en gestion d'algorithmes, et une demande décroissante pour les tâches répétitives. La diffusion de nouvelles données demeure difficile, les statistiques officielles ayant été retenues en raison du blocage des services fédéraux. Les économistes s'appuient donc sur des informations antérieures à cette crise administrative. Le département du Travail américain a révélé fin septembre que les précédents rapports sur l'emploi avaient été largement surestimés. D'avril 2024 à mars 2025, 911 000 emplois de moins ont été créés que ce qui avait été initialement annoncé. L'ampleur de l'ajustement a provoqué l'indignation à la Maison-Blanche. Les fortes baisses enregistrées en mai et juin ont entraîné une confrontation publique entre le président Donald Trump et la direction du Bureau des statistiques du travail. En conséquence, Erika McEntarfer a perdu son poste et a été remplacée par l'économiste Erwin John Antoni, connu pour ses critiques acerbes de la méthodologie du rapport sur l'emploi. Cette décision a suscité des réticences de la part des universitaires et des analystes du marché du travail, qui ont souligné l'inexpérience du nouveau directeur du Bureau. Le marché du travail américain a été affecté par plusieurs facteurs de long terme. Les politiques commerciales fondées sur les droits de douane et les restrictions ont freiné l'investissement des entreprises, et les politiques d'immigration ont rendu plus difficile le recrutement de main-d'œuvre dans les secteurs à bas salaires. La modernisation technologique s'est accélérée. Cette conjonction a conduit à une correction de la croissance de l'emploi post-pandémique et à une expansion rapide de l'intelligence artificielle. D'après les experts, la période actuelle ne marque que le début d'une transformation qui bouleversera le marché du travail américain pour les années à venir. Les données de novembre, une fois les rapports officiels publiés, pourraient radicalement modifier les perspectives de l'ensemble de l'économie, et l'optimisme s'amenuise. (Lire la suite)
  •  

L'encyclopédie d'Elon Musk propage de la désinformation : des scientifiques tirent la sonnette d'alarme

Une nouvelle étude menée par des scientifiques américains a suscité une vague de discussions autour de Grokipedia, une encyclopédie générée par intelligence artificielle, que xAI a créée comme alternative à Wikipédia. Présenté comme un recueil de connaissances factuel, ce projet, selon une analyse menée par des spécialistes de Cornell Tech, s'appuie sur des milliers de références à des documents jugés douteux, biaisés, voire trompeurs. Les auteurs du rapport, Harold Triedman et Alexios Mantzarlis, soulignent l'absence de mécanismes de contrôle de la qualité des sources et la vulnérabilité apparente du système face à des contenus à forte connotation politique. L'analyse de centaines de milliers d'articles a révélé une concentration particulière de sources controversées sur des sujets liés aux personnalités politiques et aux débats sociaux houleux. À titre d'exemple, citons l'article relatif au « nombre de morts de Clinton », une théorie du complot maintes fois démentie par les médias et les chercheurs. Cet article fait référence à InfoWars, un site web connu pour diffuser des informations sensationnalistes et mensongères. Un problème similaire se pose lorsqu'on cite des médias d'État chinois et iraniens, des portails d'extrême droite américains, des sites web anti-immigration et des sites diffusant des contenus pseudo-scientifiques. Le rapport indique également que de nombreuses entrées sont des copies quasi exactes de contenus Wikipédia, mais sans les notes de bas de page ni les balises permettant de retracer leur origine. Grokipedia utilise plus fréquemment que Wikipédia des sources jugées non fiables, et ce pourcentage est bien plus élevé pour les sites figurant sur liste noire. Les chercheurs concluent que le système ne dispose d'aucune procédure visible d'évaluation de la qualité des liens. Une demande de commentaire adressée à xAI a reçu une réponse automatique et laconique : « Les médias traditionnels mentent. » Elon Musk a maintes fois insisté sur son objectif de créer une encyclopédie « fondée sur la vérité ». Il annonce désormais qu’il renommera Grokipedia « Galaxy Encyclopedia » une fois le projet suffisamment avancé. Il encourage également les utilisateurs à contribuer à la plateforme, qu’il présente comme une évolution futuriste de la Bibliothèque d’Alexandrie. La controverse sur la crédibilité des plateformes survient dans un contexte de multiplication des accusations portées contre Wikipédia par des groupes d'extrême droite. Elon Musk l'a surnommée « Wokepedia » et a appelé sur les réseaux sociaux à boycotter le projet. Les fondateurs de Wikipédia réfutent ces allégations. Jimmy Wales qualifie les accusations de partialité de factuellement infondées, tout en reconnaissant que la communauté de contributeurs bénévoles peut encore progresser. Les représentants de la Fondation Wikimedia insistent sur le fait que la transparence est essentielle à leur fonctionnement. Le processus d'édition des articles est public et chaque entrée comprend un historique détaillé des sources. Ils soulignent que, contrairement à Grokipedia, le contenu est créé ouvertement et supervisé par la communauté, et non par une seule entreprise. Ce modèle, fondé sur la transparence et la responsabilité collective, vise à garantir la stabilité et la neutralité attendues par la communauté mondiale des utilisateurs. (Lire la suite)
  •  

Nintendo publie une mise à jour de la Switch 2 et les accessoires non officiels cessent de fonctionner

Après des signalements antérieurs concernant des solutions inhabituelles pour la prise en charge des accessoires externes via USB-C, la dernière mise à jour logicielle de la Nintendo Switch 2 a introduit de nouvelles restrictions. De nombreux possesseurs de consoles constatent que leur appareil ne fonctionne plus avec les stations d'accueil tierces. Le problème s'est largement répandu sur les réseaux sociaux, et le subreddit r/Switch regorge de plaintes. Ce n'est pas la première fois que Nintendo bloque les accessoires externes . Nintendo dément bloquer intentionnellement les accessoires externes, mais certains membres de la communauté doutent de ces affirmations. Des utilisateurs soulignent que la Switch 2 utilise non seulement un signal USB inhabituel, mais aussi un mécanisme s'apparentant à une authentification matérielle. L'analyse du comportement antérieur de la console suggère que l'appareil reconnaît les signaux spécifiques aux périphériques officiels Nintendo et y répond parfaitement, tandis que les stations d'accueil externes ne les activent souvent que partiellement, voire les bloquent complètement. La différence de prix entre les stations d'accueil officielles et celles de marques tierces alimente les doutes. La station d'accueil officielle de la Nintendo Switch 2 coûte 124,99 $ et est difficile à trouver. Parallèlement, les alternatives les plus populaires disponibles sur Amazon sont quatre fois moins chères. De nombreux joueurs soupçonnent Nintendo de chercher à conserver sa position dominante sur le marché des accessoires en limitant la disponibilité d'alternatives bon marché. Ils soulignent également que de tels problèmes ne se posaient pas avec la Switch de première génération, qui était bien plus compatible avec les périphériques tiers. Malgré la confusion, des signes d'espoir apparaissent. Le fabricant de la station d'accueil Siwiqu, très populaire, a publié une mise à jour du firmware qui rétablit toutes ses fonctionnalités. NEXT a également annoncé préparer son propre correctif. Les utilisateurs ayant acheté des stations d'accueil sans la marque ni le support du fabricant se trouvent dans une situation encore plus délicate. Faute de documentation et de communication, leurs appareils resteront probablement inutilisables. (Lire la suite)
  •