Windows 11 January Update Breaks Notepad, Snipping Tool and Other Apps - WinBuzzer
(Permalink)
Ubisoft a annoncé un projet de rupture conventionnelle collective visant à supprimer jusqu’à 200 postes au sein de son siège de Saint-Mandé en Île-de-France, soit près de 5 % de ses effectifs en France. Cette mesure inédite pour l’éditeur de jeux vidéo en France s’inscrit dans une stratégie …
Aimez KultureGeek sur Facebook, et suivez-nous sur Twitter
N'oubliez pas de télécharger notre Application gratuite iAddict pour iPhone et iPad (lien App Store)
L’article Ubisoft veut supprimer jusqu’à près de 5 % de ses effectifs français est apparu en premier sur KultureGeek.
Microsoft, désormais au niveau de Google et d’Amazon sur les puces IA ?
La deuxième génération des accélérateurs Maia – tout juste annoncée – s’accompagne en tout cas d’un comparatif de performance. Cela n’avait pas été le cas pour la première, présentée fin 2023.
D’une génération à l’autre, on est passé de 5 à 3 nm, de la HBM2 à la HBM3… et d’une approche généraliste à un message centré sur l’inférence, avant tout à faible précision (4 et 8 bits).
Vu ce focus, on aurait pu penser que Microsoft ferait la comparaison avec les puces Inferentia2 d’Amazon. Mais celles-ci ont, il est vrai, un certain âge (introduites fin 2022). L’accélérateur Maia 200 est donc opposé aux Trainium3 (dévoilées en décembre 2025 ; dédiées à l’entraînement). Ainsi qu’à la dernière génération de TPU de Google (Ironwood, introduite en avril 2025).
| Maia 200 | Trainium3
(specs disponibles ici) |
TPUv7x
(specs disponibles ici) |
|
| Mémoire HBM | 216 Go | 144 Go | 192 Go |
| Bande passante HBM | 7 To/s | 4,9 To/s | 7,4 To/s |
| Bande passante scale-up | 2,8 To/s | 2,56 To/s | 1,2 To/s |
| BF16 | 1268 Tflops | 671 Tflops | 2307 Tflops |
| FP8 | 5072 Tops | 2517 Tops | 4614 Tops |
| FP4 | 10 145 Tops | 2517 Tops | n/a |
Microsoft annonce une enveloppe thermique de 750 W pour Maia 200, tandis que les puces d’Amazon et de Google fonctionnent à environ 1000 W. Au final, il prétend que son accélérateur est « 40 % moins cher que les autres »…![]()
Maia 100 n’est pas exposé directement aux clients finaux : il porte des services comme Copilot et Azure OpenAI, ainsi que des workloads HPC. La même stratégie se dessine avec les accélérateurs Maia 200. La division Microsoft Superintelligence en sera la première utilisatrice. On nous parle aussi d’une exploitation dans le cadre de Microsoft 365 et d’Azure AI Foundry. Mais pas d’une mise à disposition dans l’offre de compute.
Physiquement parlant, les premières puces seront localisées dans la région US Central (Iowa). La région US West 3 (Arizona) suivra. Elles sont déployables en configuration à refroidissement liquide ou à air.
De Maia 100 à Maia 200, on retrouve une couche réseau basée sur Ethernet, avec un protocole type RoCE. Une topologie intranœud est mise en place, connectant des groupes de 4 puces « en direct », sans switch. Un cluster peut accueillir au maximum 6144 puces.
La couche mémoire évolue, avec un partitionnement de la SRAM (272 Mo par puce) en deux niveaux logiques, chacun ayant son sous-système DMA. Le premier (TSRAM) alimente les tiles (plus petite unité autonome de calcul et de stockage local, embarquant moteurs matriciel et vectoriel) ; le deuxième (CSRAM), les clusters.
Cette approche favorise diverses stratégies de data management en fonction des noyaux. Les kernels d’attention, par exemple, peuvent épingler des tenseurs en TSRAM pour minimiser l’overhead. Tandis que les pipelines cross-kernel peuvent exploiter la CSRAM comme tampon pour le chaînage à haut débit.
Illustrations © Microsoft
The post Puces IA : face à Amazon et Google, Microsoft se replace appeared first on Silicon.fr.

Windows 11 est rapide et stable mais la colère des utilisateurs ne faiblit pas. En cause, une relation de confiance de plus en plus abîmée
Cet article Windows 11 fonctionne bien, mais la crise est là ! a été publié en premier par GinjFo.