Redmi Note 15 Series Official: Five Models, 200 MP Cameras



Microsoft a mis à jour la liste des processeurs compatibles avec Windows 11, mais sa nouvelle présentation brouille les pistes...
Cet article Windows 11 : Microsoft modifie sa liste de processeurs compatibles a été publié en premier par GinjFo.

Depuis quelques jours, la communauté Arduino grince des dents : les nouvelles Conditions d’utilisation et la Politique de confidentialité, fraîchement mises en ligne après l’acquisition par Qualcomm, changent sensiblement la donne. Entre collecte élargie de données, droits très étendus sur les contenus publiés et restrictions de rétro-ingénierie, beaucoup s’interrogent : l’esprit open-source d’Arduino est-il en […]
Cet article Arduino change ses Conditions d’utilisation : quels risques pour l’open-source ? Analyse complète a été publié en premier sur Framboise 314, le Raspberry Pi à la sauce française.....

La Bourse, séduite par la stratégie IA de Qualcomm ? La dernière annonce a en tout cas fait mouche.
Le groupe américain a officialisé deux cartes accélératrices pour l’inférence : l’AI200 et l’AI250. Il compte commercialiser la première en 2026 ; la seconde en 2027.
Quant à la spec sheet, on repassera. Tout au plus Qualcomm met-il en avant les 768 Go de LPDDR que gérera l’AI200. Et l’architecture de l’AI250, censée procurer « une bande passante mémoire plus de 10 fois plus efficace »…
Au-delà des produits, il y a un premier client. En l’occurrence, HUMAIN, entreprise que le royaume d’Arabie saoudite a fondée cette année pour porter sa stratégie IA.
Un protocole d’entente avait été signé en mai, à l’occasion d’une visite de Donald Trump. Pour Qualcomm, il impliquait à la fois des travaux côté datacenter (développement de CPU, notamment) et en périphérie (puces Snapdragon et Dragonwing).
Voilà que le protocole d’entente devient un « programme de collaboration ». Dans ce cadre, HUMAIN vise 200 MW de capacité en AI200 et AI250… que Qualcomm semble amené à lui fournir en racks.
Pour le moment, la carte accélératrice de référence chez Qualcomm est l’AI 100 Ultra. Ses principales caractéristiques :
Commercialisée depuis environ un an, l’AI 100 Ultra associe 4 XPU AI 100. Ces puces, annoncées en 2019, furent livrées à partir de 2021. Cerebras Systems, en particulier, en fut client. Elles sont aujourd’hui déployées entre autres chez Cirrascale (États-Unis), Core42 (Émirats arabes unis) et chez AWS (instance EC2 DL2q).
Étant dédiée à l’inférence, l’AI 100 Ultra s’est, dans une certaine mesure, distinguée sur cet exercice vis-à-vis des GPU NVIDIA en matière de rapport performance par watt. D’autant plus que les SoC AI 100 peuvent être alloués individuellement à des workloads.
Un récent article émanant de l’université de San Diego l’illustre. Il rend compte d’une expérimentation effectuée dans le contexte du NRP (National Research Platform, socle Kubernetes utilisé par environ 300 équipes de recherche sur une centaine de sites). 12 modèles de langages open source (124M à 70B) ont été testés, avec vLLM, sur 30 configurations (deux paramètres variaient : le nombre de tokens en sortie et le nombre de requêtes concurrentes).
Les résultats à 200 tokens et 4 requêtes parallèles sont compilés dans le tableau ci-dessous. Le rapport souligne que pour les atteindre, une étape préliminaire de plusieurs heures a été nécessaire : convertir les modèles au format ONNX, puis au format propriétaire QPC (Qualcomm Program Container).
| Modèle | A100 (mesuré) | QAic (mesuré) | ||||
|---|---|---|---|---|---|---|
| GPU | Tokens/s | W | SoC | Tokens/s | W | |
| GPT-2 | 4 | 2,613 | 1205 | 1 | 218 | 38 |
| granite-3.2-8b | 4 | 318 | 1246 | 1 | 25 | 36 |
| deepseek-llama-8b | 4 | 674 | 1197 | 4 | 24 | 140 |
| deepseek-qwen-7b | 4 | 719 | 999 | 4 | 22 | 140 |
| DeepSeek-Qwen-7B | 4 | 368 | 1075 | 4 | 9 | 126 |
| Llama-3.1-8B-AWQ | 4 | 678 | 1240 | 4 | 9 | 131 |
| Llama-4-Scout-17B | 8 | 272 | 2620 | 4 | 9 | 142 |
| DeepSeek-Qwen-32B | 8 | 190 | 2752 | 8 | 9 | 273 |
| Qwen-32B-AWQ | 4 | 250 | 1363 | 4 | 13 | 145 |
| DeepSeek-Llama-70B | 8 | 104 | 2935 | 8 | 8 | 292 |
| Llama-3.3-70B-AWQ | 8 | 170 | 2210 | 8 | 9 | 275 |
| Nemortron-70B | 8 | 104 | 2983 | 4 | 6 | 148 |
Illustration © Qualcomm
The post Dans la course à l’IA, Qualcomm s’affirme côté datacenter appeared first on Silicon.fr.



