En plus de la Bbox 5G Wi-Fi 7 et de la Bbox Extra, Bouygues Telecom a lancé aujourd’hui une nouvelle Bbox Wi-Fi 7. Contrairement aux deux autres qui ont fait l’objet d’une présentation lors d’une conférence, la troisième box a le droit à une simple apparition sur le site …
Bouygues Telecom a présenté deux nouveaux équipements destinés à améliorer la connectivité des foyers via la 5G. L’opérateur a lancé une box 5G compatible Wi-Fi 7 et a présenté une solution de secours pour palier les pannes d’Internet fixe. La Bbox 5G Wi-Fi 7 mise sur la performance et …
NVIDIA prévoit de lancer cette année des processeurs pour ordinateurs portables grand public basés sur l'architecture ARM, baptisés N1 et N1X, qui devraient dominer la plateforme Windows on ARM. Les discussions autour d'un processeur NVIDIA grand public circulent depuis l'année dernière, suite aux rumeurs concernant l'intention de l'entreprise d'utiliser ARM pour créer un système sur puce (SoC) pour ordinateur portable. Cependant, le projet a apparemment été retardé et le DGX Spark, équipé du processeur GB10, a été lancé à sa place. Désormais, selon un article de DigiTimes, le processeur N1X sera disponible dans les ordinateurs portables dès le premier trimestre de cette année, avec une commercialisation prévue au deuxième trimestre, ce qui indique la sortie imminente des premières solutions grand public du géant de l'IA.
Le concept d'une plateforme ARM grand public s'inscrit parfaitement dans la stratégie de NVIDIA visant à couvrir l'ensemble de l'écosystème de l'IA. L'entreprise ambitionne en effet d'offrir des performances IA de pointe avec les N1 et N1X, les positionnant ainsi comme une plateforme haut de gamme pour le calcul IA. Concernant les spécifications, on sait seulement que les futurs processeurs ARM seront gravés en 3 nm par TSMC et présenteront une configuration similaire à celle du processeur GB10. Cela signifie que l'entreprise privilégiera l'efficacité énergétique et la capacité à exécuter des technologies basées sur l'IA plutôt que des performances extrêmes. Il sera intéressant de voir cette puce en action. (Lire la suite)
OpenAI devrait lever le voile sur son tout premier produit matériel avant la fin de l’année si l’on en croit Chris Lehane, directeur des affaires internationales du groupe. Cette déclaration, faite lors du Forum économique mondial de Davos, confirme que le calendrier évoqué en « off » ces derniers mois …
Après une pause en 2025 (qui ressemblait à un arrêt pur et simple du projet), Tesla prévoit de remettre en chantier Dojo, son supercalculateur « maison » dédié à l’intelligence artificielle. Elon Musk a confirmé sur X le redémarrage du projet Dojo3, expliquant que l’entreprise pourra désormais y consacrer à …
Les problèmes de marché n'affectent plus les modèles de cartes graphiques individuellement, mais bien l'ensemble de la série RTX 50, les livraisons ayant considérablement diminué. Si les rumeurs d'arrêt de la GeForce RTX 5070 Ti et d'autres cartes graphiques ne suffisaient pas, de nouvelles informations sont encore plus alarmantes. Un informateur réputé a rapporté que NVIDIA a réduit ses livraisons de GPU à ses partenaires d'environ 15 à 20 %. Cette baisse significative des volumes aura un impact direct sur les prix et la disponibilité des cartes graphiques dans les prochains jours. Les prix des GPU augmentent régulièrement depuis plusieurs semaines et la situation pourrait encore s'aggraver.
Selon une source interne, malgré la réduction de l'offre, NVIDIA continuera de livrer ses GPU avec des puces de mémoire vidéo. Il est possible que l'entreprise ait décidé de maintenir cette solution, malgré des informations contraires par le passé. Quoi qu'il en soit, l'arrêt de la distribution des puces de mémoire vidéo serait surprenant compte tenu de la forte diminution déjà constatée des GPU. De plus, NVIDIA aurait déjà suspendu les livraisons de la GeForce RTX 5070 Ti et de plusieurs autres cartes graphiques en raison d'une pénurie de DRAM, ce qui rend la pénurie de mémoire vidéo moins urgente. Autre mauvaise nouvelle : l'entreprise pourrait retarder le lancement de la série RTX 50 SUPER, voire l'annuler purement et simplement. C'est également décevant, mais d'un autre côté, aux prix actuels, ces nouvelles cartes graphiques auraient de toute façon été hors de prix, ce qui relativise la situation. (Lire la suite)
Une tendance plutôt surprenante se dessine sur le marché chinois du matériel informatique. Les cartes mères compatibles avec la mémoire DDR3, auparavant considérées comme totalement obsolètes, connaissent un regain de popularité. La raison est simple : la forte hausse du prix des modules de RAM modernes pousse certains consommateurs à rechercher les alternatives les plus économiques pour assembler des ordinateurs simples. D'après les informations publiées sur le forum chinois Board Channels, les ventes de cartes mères compatibles DDR3 ont doublé, voire triplé, par rapport aux périodes précédentes. Les kits combinant ces cartes mères avec des processeurs Intel d'occasion de la 6e à la 9e génération se vendent également très bien. Pour de nombreux utilisateurs, ces configurations sont suffisantes pour les tâches quotidiennes peu exigeantes. Le retour aux anciennes normes s'explique principalement par la situation du marché de la RAM. Les prix de la DDR4 et de la DDR5 ont atteint des niveaux que certains clients ont du mal à accepter, notamment pour l'assemblage d'ordinateurs à petit budget. Dans ce contexte, la DDR3, malgré ses limitations évidentes, s'impose comme une solution permettant de réduire significativement le coût global du système.
Un autre facteur important est la grande disponibilité de mémoire DDR3 d'occasion à bas prix. Les plateformes d'enchères et les places de marché regorgent de modules provenant d'ordinateurs de bureau obsolètes. De plus, la fin du support de Windows 10 accélère le renouvellement du matériel informatique en entreprise, augmentant ainsi l'offre de composants anciens sur le marché secondaire. Bien sûr, le retour à la DDR3 est loin d'être une solution idéale et ne constitue qu'un palliatif, car les performances et la pérennité de ces plateformes sont fortement limitées. Cependant, pour les utilisateurs qui ont principalement besoin d'un ordinateur pour naviguer sur Internet, consulter leurs courriels ou effectuer des tâches bureautiques, une telle configuration peut s'avérer parfaitement suffisante. Compte tenu du prix élevé de la mémoire moderne, de nombreux consommateurs chinois ont apparemment trouvé ce compromis acceptable. (Lire la suite)
Avec la carte Raspberry Pi AI HAT+ 2, la Fondation Raspberry Pi introduit une carte HAT+ intégrant l’accélérateur Hailo-10H et 8 Go de mémoire dédiée, conçue exclusivement pour le Raspberry Pi 5. Connectée en PCIe Gen 3, elle vise l’exécution locale de modèles d’IA sans dépendre du cloud. Dans ce premier article, je vous présente […]
Certaines des cartes graphiques les plus critiquées pourraient bientôt voir leur part de marché augmenter significativement. Selon un rapport, NVIDIA prévoit d'accroître les livraisons de cartes graphiques RTX 50 dotées de 8 Go de mémoire. Alors qu'il semblait auparavant que l'industrie régressait en promouvant les plateformes DDR4 pour les systèmes de jeu, la situation est aujourd'hui encore plus révélatrice. Il semble que les rayons des magasins seront à nouveau remplis de cartes graphiques de 8 Go, rendant les configurations de jeu performantes et sans compromis de plus en plus rares. Selon Board Channels, NVIDIA entend augmenter les livraisons des GeForce RTX 5060 et RTX 5060 Ti avec 8 Go de mémoire vidéo, car une pénurie de VRAM empêche un approvisionnement stable des modèles 16 Go. Par conséquent, une nouvelle stratégie d'approvisionnement est en cours d'élaboration pour la série RTX 50, qui privilégiera les ventes de versions 8 Go, tandis que la disponibilité des RTX 5060 Ti et RTX 5070 Ti (16 Go) sur le marché sera considérablement réduite.
La RTX 5060 8 Go devrait représenter la plus grande part des livraisons, tandis que la RTX 5060 Ti 8 Go sera produite en bien plus grande quantité que la version 16 Go. On ignore encore quand cette stratégie entrera en vigueur, mais certaines régions constatent déjà des hausses de prix pour les cartes graphiques. Des rapports précédents laissaient présager une augmentation significative des prix des solutions AMD et NVIDIA ce trimestre, et un nouveau rapport indique que ces hausses se poursuivront au deuxième trimestre. C'est une très mauvaise nouvelle pour les joueurs, car les cartes graphiques 8 Go sont encore peu nombreuses. (Lire la suite)
L'idée de placer son ordinateur dans un congélateur circule depuis des années sur les forums de passionnés d'informatique et d'overclocking. Cependant, la plupart de ces expériences échouent avant même d'avoir commencé, généralement à cause de l'humidité, de la condensation ou de problèmes d'alimentation. Le youtubeur TrashBench a décidé d'aborder le sujet méthodiquement et de voir si, avec les bonnes hypothèses, un succès, même minime, était possible. Le test utilisait une configuration aujourd'hui obsolète, mais qui était extrêmement performante à l'époque. Le système était composé d'un processeur Intel Core i7-9700K et d'une carte graphique GeForce GTX 1070. Au lieu d'un système de refroidissement classique, le concepteur avait utilisé un congélateur coffre, qu'il avait modifié en scellant le couvercle et en améliorant l'isolation afin de limiter les entrées d'air chaud extérieur. Les composants étaient suspendus par des courroies en caoutchouc afin de réduire la transmission des vibrations et le contact avec des surfaces froides. L'utilisation de grandes quantités de gel de silice, absorbant l'humidité de l'air, jouait également un rôle essentiel. Au lieu de démarrer l'ordinateur immédiatement, TrashBench a laissé le système se stabiliser. Concrètement, cela impliquait de « stocker » de l'air froid et sec dans un congélateur. Les tests de performance n'ont commencé qu'après avoir atteint une température d'environ -26 °C. L'expérience visait principalement l'overclocking de la carte graphique. Et c'est là la première déception : la température extrêmement basse n'a permis d'augmenter la fréquence d'horloge que d'environ 240 MHz lors de l'overclocking. Les résultats obtenus en jeu étaient plutôt modestes. Dans Far Cry 6, le système n'a gagné que trois images par seconde, dans Cyberpunk 2077 quatre, et le meilleur résultat a été enregistré dans Shadow of the Tomb Raider, avec un gain de huit images par seconde. Compte tenu des mesures de refroidissement aussi radicales, ces résultats sont loin d'être révolutionnaires.
P4W8f-703rI
Après avoir sorti l'équipement du congélateur, les composants se sont avérés parfaitement secs. C'est un véritable succès, car la condensation est la cause la plus fréquente de défaillance lors de tests similaires. Une isolation adéquate, des absorbeurs d'humidité et une durée de fonctionnement limitée ont permis d'éviter ce problème. L'expérience a confirmé qu'avec les précautions appropriées, l'humidité peut être maîtrisée, à condition que l'ordinateur ne fonctionne pas en continu dans de telles conditions. La conclusion de TrashBench est sans appel : si l’ordinateur placé au congélateur fonctionne bel et bien, la solution est extrêmement impraticable. Pour les adeptes de l’overclocking extrême, cette expérience relève davantage de la curiosité que de la méthode à suivre. Pour la plupart des utilisateurs dont le système est configuré par défaut, l’effort et les risques encourus ne justifient absolument pas le gain de quelques images par seconde. (Lire la suite)
Face à la pénurie, les prix de la mémoire continuent d'augmenter, et les entreprises d'encapsulation et de test annoncent désormais des hausses de tarifs pouvant atteindre 30 %. Powertech, Walton et ChipMOS sont responsables de l'encapsulation et des tests de la mémoire, tandis que Samsung, SK Hynix et Micron produisent la DRAM utilisée dans des produits tels que la DDR4, la DDR5 et la HBM. Ces entreprises assurent également les tests, la validation et l'assemblage des modules de mémoire finis avant leur expédition aux clients. Powertech est le principal partenaire de Micron pour l'encapsulation et les tests, tandis que Walton, filiale du groupe Walsin Lihwa, traite principalement les commandes de Winbond, également membre du même groupe.
Face à l'afflux de puces mémoire livrées par Micron et Winbond, la demande en conditionnement et tests finaux a explosé, entraînant une forte hausse d'activité pour Powertech et Walton. Formosa Plastics, fournisseur de Nanya Technology, profite également de la situation. Mais même si vous ne connaissez pas ces entreprises, il n'y a pas lieu de s'inquiéter. L'important est que si les fabricants de puces mémoire ont augmenté leurs prix d'un tiers, ces coûts seront répercutés sur le consommateur final, qui subira une augmentation de 30 %. Et dans le contexte de la RAM, c'est une très mauvaise nouvelle, car la RAM est déjà extrêmement chère et les prix devraient encore augmenter. Ce sont des temps difficiles pour les joueurs PC. (Lire la suite)
La menuiserie traditionnelle connaît depuis quelques années une transformation profonde grâce aux technologies numériques. Cette technologie permet aujourd’hui de créer des pièces complexes, des gabarits de précision et des prototypes rapidement, ouvrant ainsi de nouvelles perspectives créatives et fonctionnelles.
Les applications concrètes de l’impression 3D en menuiserie
Création de gabarits et guides de coupe
L’une des utilisations les plus pratiques de l’impression 3D concerne la fabrication de gabarits sur mesure. Ces outils permettent de reproduire des coupes identiques avec une précision millimétrique, un atout majeur pour la production en série ou la restauration de pièces anciennes.
Exemple pratique : Pour réaliser des assemblages à queue d’aronde parfaitement identiques, vous pouvez imprimer un gabarit en PLA ou en PETG qui guidera votre défonceuse. Modélisez le gabarit sur un logiciel gratuit comme Tinkercad ou Fusion 360, en prévoyant des bords surélevés de 5 à 8 mm pour guider le roulement de la fraise. Le temps d’impression sera d’environ 3 à 5 heures selon la taille, mais ce gabarit sera réutilisable des dizaines de fois.
Pièces de remplacement et éléments décoratifs
L’impression 3D excelle dans la reproduction de petites pièces manquantes ou cassées, particulièrement utile en restauration de meubles anciens. Les rosaces décoratives, les embouts de tiroirs, les cache-vis ornementaux ou les charnières plastiques peuvent être recréés fidèlement.
Alors que Votre fabricant de fenêtre en Haute-Garonne et d’autres artisans spécialisés continuent de perfectionner leur savoir-faire ancestral, l’impression 3D s’impose progressivement comme un outil complémentaire précieux pour tous les professionnels du bois et de la menuiserie.
Cas d’usage : Sur une commode Louis XV, une rosace en bronze est manquante. Après avoir scanné ou mesuré l’élément symétrique encore présent, vous pouvez modéliser puis imprimer la pièce en résine ou en filament effet bronze. Une fois imprimée, poncez légèrement la surface avec du papier grain 400 puis 800, appliquez une sous-couche et une peinture métallisée. Le résultat sera visuellement très proche de l’original à une fraction du coût.
Systèmes de serrage et de maintien personnalisés
Les menuisiers ont souvent besoin de dispositifs de serrage spécifiques pour des pièces aux formes atypiques. L’impression 3D permet de créer des mâchoires de protection sur mesure, des cales d’angle ou des supports de ponçage adaptés.
Conseil pratique : Imprimez des mâchoires de protection en TPU (filament flexible) pour vos serre-joints. Ce matériau absorbe les chocs et protège efficacement les surfaces délicates lors du collage. Prévoyez une épaisseur de 8 à 10 mm et des encoches pour un maintien parfait sur vos serre-joints existants. Le TPU se imprime idéalement à 230°C avec une vitesse réduite de 30 mm/s.
Choix des matériaux selon les applications
Le PLA : polyvalent et économique
Le PLA (acide polylactique) reste le filament de prédilection pour débuter. Biodégradable et facile à imprimer, il convient parfaitement aux gabarits, prototypes et outils de mesure utilisés en atelier. Sa température d’impression basse (190-220°C) le rend accessible sur toutes les imprimantes.
Attention : Le PLA ramollit au-delà de 60°C. Évitez de l’utiliser pour des pièces exposées à la chaleur (près de radiateurs, en plein soleil) ou soumises à des contraintes mécaniques importantes sur le long terme.
Le PETG : robustesse et résistance
Pour des pièces fonctionnelles devant résister aux chocs et aux variations de température, le PETG (polyéthylène téréphtalate glycolisé) s’impose. Plus résistant que le PLA, il supporte mieux l’humidité et conserve ses propriétés mécaniques jusqu’à 80°C.
Application recommandée : Les butées d’ajustement pour portes de placard, les guides de tiroirs ou les entretoises dans les systèmes coulissants gagnent à être imprimées en PETG. Paramétrez votre imprimante à 240°C pour la buse et 80°C pour le plateau, avec une vitesse de 50 mm/s. Activez un taux de remplissage de 40% minimum pour garantir la solidité.
Le TPU : pour la flexibilité
Ce filament élastomère thermoplastique imite le caoutchouc. Parfait pour les joints, les amortisseurs, les protections et toutes les pièces nécessitant de la souplesse.
Conseils techniques pour réussir vos impressions
Préparation et modélisation
Avant d’imprimer, la phase de conception détermine la qualité finale. Quelques règles essentielles permettent d’éviter les déconvenues :
Respectez les angles minimaux : Les surplombs ne doivent pas dépasser 45° sans support. Au-delà, prévoyez des structures de soutien ou réorientez la pièce.
Épaisseur des parois : Pour des pièces fonctionnelles, prévoyez au minimum 2 mm d’épaisseur. Les parois fines (moins de 1 mm) sont fragiles et difficiles à imprimer proprement.
Ajoutez des congés : Les angles vifs concentrent les contraintes. Un rayon de 2 à 3 mm renforce considérablement la résistance mécanique.
Prévoyez les tolérances : Pour des pièces devant s’emboîter, ajoutez 0,2 à 0,4 mm de jeu. Cette tolérance compense les imprécisions et la dilatation thermique.
Astuce de pro : Avant d’imprimer une série complète, réalisez toujours un prototype à échelle réduite ou imprimez uniquement la zone critique (assemblage, fixation). Cela vous permettra de valider les dimensions et d’ajuster les paramètres sans gaspiller matériau et temps.
Paramétrage de l’impression
Le succès d’une impression repose sur des réglages fins adaptés à chaque projet :
Hauteur de couche : 0,2 mm offre un bon compromis vitesse/qualité pour la majorité des pièces fonctionnelles. Passez à 0,1 mm pour les détails fins ou les surfaces visibles.
Remplissage : 20% suffisent pour les prototypes, montez à 40-60% pour les pièces mécaniques soumises à contraintes.
Vitesse d’impression : Ralentissez à 40-50 mm/s pour les premières couches et les détails complexes. Les impressions rapides (80 mm/s et plus) conviennent aux formes simples.
Température du plateau : 60°C pour le PLA, 80°C pour le PETG. Un plateau bien chauffé garantit l’adhérence et évite le warping (déformation).
Post-traitement pour un rendu professionnel
Une pièce imprimée brute présente souvent des défauts qu’un post-traitement simple peut corriger :
Technique de lissage : Pour éliminer les lignes de couches visibles sur le PLA, utilisez du papier abrasif en progression (grain 120, 240, 400, puis 800). Terminez par un polissage avec un chiffon microfibre légèrement humide. Pour un effet miroir, vous pouvez appliquer une résine époxy en fine couche ou utiliser la technique de lissage aux vapeurs d’acétone (uniquement pour l’ABS, pas le PLA).
Intégration bois et plastique imprimé
Assemblages mixtes efficaces
Combiner le bois traditionnel avec des éléments imprimés ouvre des possibilités créatives intéressantes. Plusieurs méthodes d’assemblage ont fait leurs preuves :
Insertion thermique : Utilisez des inserts filetés en laiton chauffés au fer à souder. Ils s’enfoncent dans le plastique et créent un filetage solide pour vis à bois.
Collage structural : Les colles époxy bi-composants adhèrent excellemment au bois et au plastique. Poncez légèrement les deux surfaces (grain 120) pour améliorer l’accroche.
Emboîtements mécaniques : Concevez des pièces imprimées avec des tenons s’insérant dans des mortaises du bois. Prévoyez 0,3 mm de jeu pour un ajustement serré.
Recommandation : Pour des assemblages durables entre bois et pièces imprimées en PETG, privilégiez la colle polyuréthane (type colle à bois Gorilla). Elle compense les différences de dilatation entre matériaux et résiste à l’humidité. Appliquez une fine couche sur les deux surfaces, pressez pendant 1 heure minimum avec des serre-joints.
Idées de projets mixtes bois-impression 3D
Projet 1 – Système d’étagères modulaires : Créez une structure en bois massif (hêtre ou chêne) avec des tablettes de 18 mm d’épaisseur. Imprimez en PETG des équerres d’angle personnalisées intégrant des LED, des ports USB ou des crochets intégrés. Ces connecteurs imprimés transforment une étagère classique en meuble intelligent et évolutif.
Projet 2 – Boîte à outils personnalisée : Fabriquez le coffret en contreplaqué de bouleau (12 mm). Imprimez des organisateurs internes sur mesure avec des compartiments ajustés à vos outils spécifiques. Ajoutez des clips de maintien imprimés en TPU pour sécuriser ciseaux, gouges et tournevis. Le résultat combine la beauté du bois avec la fonctionnalité optimale du plastique moulé.
Investissement et rentabilité
Budget pour débuter
L’accessibilité financière de l’impression 3D en fait un investissement raisonnable pour un atelier de menuiserie :
Imprimante 3D FDM entrée de gamme : 200-400€ (Creality Ender 3, Prusa Mini+)
Filaments : 20-30€/kg selon le type (PLA, PETG, TPU)
Consommables : Buses, plaques de verre, rubans adhésifs : 50-100€/an
Calcul de rentabilité : Un gabarit de précision pour assemblages coûte 80-150€ chez les fournisseurs spécialisés. En l’imprimant vous-même, le coût matière ne dépasse pas 5-8€. Dès la cinquième pièce utilitaire fabriquée, l’imprimante est rentabilisée. Sans compter le gain de temps sur des pièces spécifiques impossibles à trouver dans le commerce.
Limites et précautions
Malgré ses nombreux avantages, l’impression 3D présente certaines contraintes à connaître :
Résistance structurelle limitée : Les pièces imprimées ne remplaceront jamais le bois massif pour les applications structurelles. Réservez-les aux fonctions secondaires ou aux prototypes.
Taille limitée : La plupart des imprimantes grand public ont un volume d’impression de 20x20x20 cm. Pour des pièces plus grandes, il faudra concevoir des assemblages multiples.
Temps de fabrication : Une pièce complexe peut nécessiter 8 à 24 heures d’impression. Anticipez vos besoins et lancez les impressions pendant les temps morts.
Finitions nécessaires : Aucune pièce imprimée n’est parfaite en sortie de plateau. Prévoyez systématiquement un temps de finition (ébavurage, ponçage, perçage).
Perspectives d’avenir
L’impression 3D continue d’évoluer rapidement. Les nouvelles technologies comme l’impression multi-matériaux, les filaments chargés en fibres (carbone, verre) ou les imprimantes à résine haute résolution ouvrent des perspectives encore plus larges pour la menuiserie créative et technique.
L’intégration de capteurs imprimés, de circuits électroniques flexibles ou de matériaux intelligents pourrait bientôt permettre de créer des meubles connectés, des systèmes de verrouillage personnalisés ou des surfaces interactives. La menuiserie de demain sera hybride, combinant tradition artisanale et innovation technologique.
Pour aller plus loin : Rejoignez des communautés en ligne comme Thingiverse, Printables ou Cults3D pour accéder à des milliers de modèles gratuits adaptés à la menuiserie. Partagez vos propres créations et bénéficiez de l’expérience collective. Les forums spécialisés comme ceux de Prusa ou les groupes Facebook dédiés offrent un support technique précieux pour résoudre les problèmes courants.
En conclusion, l’impression 3D ne remplace pas les compétences traditionnelles du menuisier mais les augmente considérablement. Elle permet de gagner en précision, en créativité et en efficacité, tout en réduisant les coûts pour les petites séries et les pièces personnalisées. Que vous soyez artisan établi ou amateur passionné, cette technologie mérite d’être explorée et intégrée progressivement à votre pratique.
Acer a élargi sa gamme de PC compacts avec le Veriton RA100 SFF, doté d'un processeur AMD Ryzen AI Max+ 395 à 16 cœurs avec une fréquence d'horloge allant jusqu'à 5,1 GHz, d'un processeur neuronal de 50 TOPS et d'une carte graphique intégrée NVIDIA RTX 4060 Radeon 8060S.Ce PC est également équipé de 128 Go de RAM maximum, d'un disque SSD d'une capacité maximale de 4 To, d'un boîtier d'un volume d'environ 3 litres et de dimensions de 203 x 192 x 70 mm, du Wi-Fi 7 et du Bluetooth 5.4, d'un port RJ45 2,5 GbE et de deux ports USB 4.0. Il sera disponible à l'achat au premier trimestre, mais les prix des différentes configurations n'ont pas encore été communiqués.
(Lire la suite)
Le nouveau Corsair Galleon 100 SD, présenté au CES 2026, est un clavier mécanique filaire doté d'un Stream Deck Plus entièrement intégré sur le côté droit du châssis, offrant un accès à des commandes supplémentaires. Il comprend 12 touches personnalisables, un écran IPS polyvalent de 5 pouces avec une résolution de 720 x 1280 pixels et deux encodeurs rotatifs. Ce n'est pas la première fois que des éléments du Stream Deck, inspirés d'Elgato, apparaissent dans les produits Corsair. En 2022, la société avait dévoilé l'ordinateur portable Corsair Voyager équipé de touches tactiles personnalisables via le logiciel Elgato. Bien que cela ait pu paraître rudimentaire à l'époque, cela laissait entrevoir le début d'une ère prometteuse, compte tenu du rachat d'Elgato par Corsair en 2018.
Le Galleon représente une avancée significative, principalement parce qu'il offre une expérience Stream Deck complète, et non une version allégée. Cela dit, ses capacités en tant que clavier gaming ne doivent pas être sous-estimées : il prend en charge un taux d'interrogation de 8 000 Hz, dispose d'un circuit imprimé remplaçable avec des commutateurs MLX Pulse, d'un système de montage rembourré et de la technologie FlashTap pour des clics simultanés dans des directions opposées. Cependant, son atout majeur réside dans l'intégration du Stream Deck. Cette fonctionnalité intéressera les utilisateurs qui travaillent, streament ou souhaitent simplement surveiller facilement la charge de leur système tout au long de la journée. Un tel clavier a toutefois un prix élevé.
(Lire la suite)
Razer est la dernière entreprise du secteur des jeux PC à se recentrer sur le marché de l'intelligence artificielle et à en tirer profit. Mais il ne s'agit pas simplement d'apposer l'étiquette tendance « IA » sur ses produits existants. Razer a dévoilé une station de travail entièrement nouvelle, conçue spécifiquement pour l'entraînement, l'inférence et la modélisation en IA. La station de travail Razer Forge AI Dev, au format rackable, simplifie la création de configurations de clusters denses à partir de plusieurs systèmes. Elle prend en charge jusqu'à quatre cartes graphiques AMD ou NVIDIA, dispose de huit emplacements mémoire DDR5 et est alimentée par un processeur AMD Ryzen Threadripper Pro.
Le système est conçu pour une alimentation jusqu'à 2 000 W et est équipé de deux ports Ethernet 10 Gbps pour des transferts de données à haut débit. Razer ne communique ni le prix ni la disponibilité, car il s'agit d'un produit sur mesure nécessitant une commande directe auprès de son équipe commerciale. Par ailleurs, il est important de noter que cet appareil est clairement destiné au secteur professionnel, où les utilisateurs ne commanderont pas un seul ordinateur avec une configuration d'entrée de gamme. Les clients potentiels opteront probablement pour des clusters complets afin de créer des systèmes multi-niveaux performants.
(Lire la suite)
La première batterie à semi-conducteurs produite en série arrive sur le marché, marquant une étape cruciale pour l'avenir des véhicules électriques. Donut Lab la présente comme une solution prête à l'emploi, avec des applications allant des voitures aux motos . Le lancement sur un modèle réel, la Verge TS Pro , une moto électrique « sans compromis » , nous permet d'observer de près les performances et les limites d'une technologie attendue depuis des années et souvent reportée L'entreprise qualifie cette disponibilité de réponse concrète aux demandes du secteur , après des années durant lesquelles la date d'arrivée des batteries à semi-conducteurs est restée incertaine. Selon Donut Lab, la batterie atteint une densité énergétique de 400 Wh/kg , supérieure aux 250 à 300 Wh/kg des batteries lithium-ion les plus courantes actuellement disponibles. L'entreprise revendique également une durée de vie d'environ 100 000 cycles de charge sans limite de niveau de charge . Ce chiffre, s'il est confirmé, représente à lui seul un progrès considérable par rapport aux batteries actuelles, mais cela ne suffit pas. Une charge complète prend environ 5 minutes , un chiffre qui place le produit à un niveau incomparable avec les batteries traditionnelles, qui nécessitent souvent des limitations pour préserver leur durée de vie. Les performances déclarées restent stables même dans des conditions de -30 °C et 100 °C , avec une capacité maintenue au-dessus de 99 % .
Donut Lab indique que la batterie peut être produite partout grâce à l'utilisation de matériaux 100 % écologiques et disponibles à l'échelle mondiale . L'entreprise ne précise pas les détails, mais l'absence de composants rares réduit les risques de problèmes géopolitiques. L'entreprise affirme également que la batterie reste sûre même endommagée et ne prend pas feu , un aspect crucial souvent constaté dans les batteries à électrolyte liquide. D'après Donut Lab, les cellules à semi-conducteurs sont également moins coûteuses à produire que de nombreuses batteries lithium-ion aux caractéristiques similaires. La Verge TS Pro constitue un banc d'essai fiable. Le modèle précédent offrait jusqu'à 350 km d'autonomie urbaine et un temps de charge inférieur à 35 minutes avec une batterie traditionnelle. Grâce à la nouvelle batterie à semi-conducteurs, la version standard conserve une autonomie de 350 km , tandis que l' option batterie longue portée la porte à 595 km sans modification du logement de la batterie. Le temps de charge est réduit à moins de 10 minutes , contre 5 minutes théoriques auparavant, car la moto est conçue pour des arrêts plus espacés. La batterie de Donut Lab représente le premier exemple commercialisé de cette technologie en situation réelle, et si elle tient ses promesses, elle pourrait bien donner le coup de pouce dont le marché des véhicules électriques a besoin.
Y-aPS2AwMbc (Lire la suite)
Alors que l'industrie mondiale des semi-conducteurs prend de plus en plus conscience des limites de la technologie du silicium, la Chine accélère ses travaux sur une toute nouvelle génération de processeurs. La production en série de circuits intégrés en disulfure de molybdène, un matériau bidimensionnel qui fait l'objet de recherches en laboratoire depuis plusieurs années, devrait débuter d'ici la fin de l'année. Cette fois-ci, cependant, l'accent n'est plus mis sur l'expérimentation, mais sur une véritable application industrielle. Shanghai Atomic Technology a inauguré à Shanghai la première ligne de production de démonstration de ses processeurs WUJI de nouvelle génération. Ces puces, fabriquées sans silicium, sont à base de disulfure de molybdène, un matériau composé de couches atomiquement minces. Selon le China Daily, la production à grande échelle devrait démarrer en juin 2026. L'entreprise prévoit d'atteindre des performances équivalentes à la technologie silicium 90 nm dès 2026. Les étapes suivantes incluent le 28 nm en 2027, puis le 5 nm et le 3 nm en 2028. Ce calendrier place le projet WUJI au cœur des préoccupations de l'industrie des semi-conducteurs.
Shanghai Atomic Technology a été fondée en février 2025 par Bao Wenzhong, chercheur à l'université Fudan. Dès le départ, le projet a combiné expertise académique et ambitions commerciales. Les premières puces WUJI utilisent une architecture 32 bits et prennent en charge les opérations arithmétiques sur des nombres jusqu'à 4,2 milliards. Le processeur peut traiter des données de l'ordre du gigaoctet et sa version actuelle intègre 5 900 transistors, un record pour les puces basées sur la technologie bidimensionnelle. Par comparaison, les processeurs des smartphones modernes contiennent des milliards de transistors, mais la miniaturisation du silicium se heurte à des limitations physiques. La réduction de la taille des structures entraîne une augmentation des pertes d'énergie et des problèmes thermiques de plus en plus difficiles à maîtriser. Matériau bidimensionnel, le disulfure de molybdène permet la transmission de signaux électriques avec une production de chaleur nettement inférieure. Cette caractéristique le rend particulièrement intéressant dans le domaine de l'intelligence artificielle et des centres de données, où la consommation d'énergie est devenue l'un des principaux freins à l'augmentation de la puissance de calcul.
Le gouvernement de Shanghai soutient activement le développement des semi-conducteurs à base de matériaux 2D. La ville encourage la coopération entre les universités, les instituts de recherche et les fonds de capital-risque, en fournissant des financements et en facilitant l'accès aux spécialistes. Zhai Jinguo, directeur adjoint de la Commission municipale des sciences et des technologies de Shanghai, souligne l'importance de mettre en place un écosystème complet qui permettra le passage de la recherche aux applications industrielles à grande échelle. La Chine n'est pas le seul pays à rechercher des alternatives aux processeurs traditionnels. En Russie, des scientifiques de l'Université électrotechnique de Saint-Pétersbourg (LETI) ont mis au point un prototype de transistor à effet de champ à base de carbure de silicium. De son côté, Samsung Electronics a annoncé l'utilisation du verre comme composant de ses boîtiers de circuits intégrés et prévoit de déployer cette technologie avant la fin de la décennie. Parallèlement, des équipes de recherche indiennes et américaines ont présenté un processeur expérimental doté de transistors à base de dioxyde de tungstène et de sulfure de molybdène. Ce système se distingue par une très faible consommation d'énergie, même si ses performances restent bien inférieures à celles des solutions commerciales. (Lire la suite)
L'application Logi Options+, qui permet de configurer les souris et claviers de la série MX Master, est hors service dans le monde entier. Les conséquences se sont avérées bien plus graves qu'une simple inaccessibilité temporaire aux paramètres : dans de nombreux cas, les utilisateurs ont constaté une baisse des performances du système, une surchauffe de leur ordinateur portable et une décharge rapide de la batterie. Comme l'a déterminé The Verge, la panne était due à une négligence de la part de Logitech. Le certificat développeur Apple de l'entreprise a expiré le 6 janvier 2026. À partir de cette date, macOS a bloqué le bon fonctionnement de l'application Options+, la considérant comme non vérifiée. L'effet a été immédiat : l'application se figeait au lancement, l'interface ne se chargeait pas et, dans de nombreux cas, elle restait active en arrière-plan sans répondre aux actions de l'utilisateur. Des utilisateurs ont signalé que le processus Options+ pouvait solliciter fortement le processeur, provoquant une surchauffe des MacBook même en veille. Conjuguée à une forte consommation d'énergie, cette situation entraînait une réduction significative de l'autonomie de la batterie.
Le problème n'a pas affecté tous les périphériques Logitech de la même manière. Les anciens modèles de souris, tels que les M280, G102 et M100, fonctionnaient correctement grâce aux pilotes système natifs. Les utilisateurs des modèles récents MX Master 3S et MX Master 4, qui nécessitent l'activation de l'application Options+ pour un fonctionnement optimal, ont été les plus touchés. La panne a également affecté le logiciel Logitech G HUB utilisé par les joueurs, entraînant une perte soudaine d'accès aux attributions de boutons, aux gestes, aux profils d'application et aux paramètres avancés de la molette de défilement. Logitech a confirmé le problème et l'a attribué à une erreur administrative liée au certificat développeur d'Apple. L'entreprise a assuré travailler à rétablir toutes les fonctionnalités de l'application et a promis qu'un correctif serait bientôt disponible. Pour l'instant, l'application reste inutilisable pour de nombreux utilisateurs de macOS. Certains utilisateurs ont choisi de revenir à une date antérieure dans macOS, ce qui a permis à l'application de se lancer correctement. Cependant, cette méthode a entraîné de graves perturbations des connexions chiffrées et un blocage complet des services iCloud. D'autres ont eu recours à d'anciennes versions d'Options+ installées via Homebrew. Cette solution a permis de rétablir l'accès aux réglages, mais au détriment des mises à jour de sécurité et de la stabilité à long terme.
Les experts du secteur soulignent que l'architecture actuelle de Logi Options+ diffère sensiblement des outils de configuration précédents. L'application est devenue un centre de services complexe, nécessitant une connexion Internet permanente pour la synchronisation des paramètres et la vérification des licences. Elle offre une intégration avec ChatGPT, la prise en charge des plugins disponibles sur la boutique du fabricant et des scénarios d'automatisation avancés. Sans l'application lancée, de nombreuses fonctionnalités essentielles aux utilisateurs de macOS disparaissent. En pratique, les périphériques modernes de Logitech voient leurs capacités limitées. (Lire la suite)
Cet achat, cependant, n'était pas une bonne affaire compte tenu de l'envolée des prix de la mémoire. Le magasin a contacté un client en lui proposant deux options : payer un supplément ou annuler sa commande. Il s'agit là d'une nouvelle erreur de tarification concernant la RAM. Vous commandez de la RAM neuve malgré la flambée des prix, la commande est validée et vous attendez le colis. Mais soudain, vous recevez un e-mail au travail vous informant que vous devez payer un supplément, faute de quoi la commande sera annulée. Voilà, en résumé, l' histoire de cet utilisateur de Reddit . L'utilisateur Super-Youth a publié un message controversé sur le subreddit pcmasterrace. Il y partageait le contenu d'un courriel qu'il avait reçu de manière inattendue d'un employé de PC-Canada. Le message indiquait que sa commande était en cours de traitement, mais qu'en raison de la volatilité du marché et des pénuries de composants dues à l'IA, les fabricants ne pouvaient s'engager sur les dates de livraison estimées ni garantir les prix. Après ces explications initiales, le client a été informé que le prix de sa commande était passé à 507,99 $ et qu'un ajustement était nécessaire pour que la commande puisse être validée. Deux options lui ont été proposées : accepter le nouveau prix en répondant au courriel ou annuler sa commande.
La personne qui a publié l'annonce a également partagé le code produit. Par curiosité, nous avons vérifié le type de mémoire. Le produit commandé était un kit Kingston FURY Renegade DDR5 de 2 x 16 Go, cadencé à 6 400 MT/s et avec une latence CL32. Curieusement, le prix initial était bien de 507,99 $ après la recherche. Cependant, sur la page du produit, le prix affiché est légèrement supérieur : 508,99 $. Il semblerait donc que le magasin rencontre des difficultés à afficher les prix exacts. La première chose qui vient à l'esprit en lisant cette histoire, c'est le cas récent d'un autre utilisateur de Reddit . Lui aussi avait acheté de la mémoire DDR5 à un prix avantageux, mais la boutique du fabricant a annulé sa commande en raison d'une erreur de prix. Rappelons qu'il l'avait achetée à environ la moitié du prix des kits similaires sur le marché. Il est difficile de ne pas avoir l'impression que d'autres histoires similaires se multiplieront prochainement. Ce scénario n'est guère optimiste, car personne ne souhaiterait se retrouver dans une situation où, après avoir acheté de la mémoire à prix cassé, le magasin lui annonce que la commande doit être annulée… ou qu'il faut payer des frais supplémentaires. (Lire la suite)