Cambriolages, urgences… Ce que personne ne vous dit sur ce geste courant






100 trillions de tokens, c'est assez incroyable comme chiffre ! Et si vous vous demandez ce que c'est, hé bien c'est le volume de données qu'OpenRouter vient d'analyser pour publier son rapport "State of AI" de décembre dernier. Et perso, je ne m'attendais vraiment pas à ces résultats.
OpenRouter, pour ceux qui ne connaissent pas, c'est un routeur de modèles IA qui permet d'accéder à tous les LLM du marché via une seule API. Du coup, ils ont une vue unique sur comment les gens utilisent vraiment ces outils. Pas ce qu'ils prétendent en faire sur LinkedIn (loool), mais ce qu'ils font vraiment avec.
Et là, première surprise : le roleplay représente 52% de l'usage des modèles open-source. Y'a plus de la moitié des tokens qui passent par DeepSeek, Qwen et compagnie servent à... jouer des rôles, à discuter avec des personnages fictifs, à faire du chat de base avec l'IA. Pas à coder, pas à bosser, pas à révolutionner l'humanité. Juste à s'amuser.
Du coup, ça relativise pas mal le discours ambiant sur l'IA qui va tous nous remplacer au boulot. Visiblement, pour l'instant, elle nous aide surtout à nous divertir.
Le roleplay domine largement l'usage des modèles open-source ( Source )
Deuxième claque : l'Asie est passée de 13% à 31% de l'usage mondial en un an. Singapour est maintenant le deuxième pays utilisateur après les États-Unis, devant l'Allemagne et la Chine. L'Europe, elle, stagne à 21%. Et l'Afrique ? 0,46%. Y'a encore du boulot niveau démocratisation...
L'Asie explose, l'Europe stagne, l'Afrique reste à la traîne ( Source )
Côté modèles, DeepSeek écrase tout le monde en volume avec 14,37 trillions de tokens. Qwen suit avec 5,59 trillions, puis Meta LLaMA. OpenAI ? Seulement 1,65 trillion. Mais attention, c'est du volume brut. Quand on regarde les usages pros, Claude écrase la programmation (60%+ du trafic code), pendant que DeepSeek se tape... le roleplay et le chat casual.
Le truc vraiment remarquable, c'est la montée des modèles capables de raisonner (genre o1). En janvier 2025, ils représentaient 0% mais aujourd'hui, ils sont à la tête de 50% des nouveaux usages. L'inférence multi-étapes, la délibération, la planification... Tout ça a explosé en moins d'un an. On est passés de chatbots basiques à des systèmes qui réfléchissent avant de répondre.
Les modèles raisonnants passent de 0% à 50%+ en un an ( Source )
Et les prompts ? Ils ont quadruplé de longueur. De 1 500 tokens en moyenne à plus de 6 000. Les gens sont devenus plus bavards avec leurs assistants numériques, ou alors ils ont compris qu'il fallait être plus précis pour obtenir de bons résultats.
Dernier point intéressant, le prix n'a quasiment aucun impact sur l'usage. Une baisse de 10% du prix ne génère que 0,5 à 0,7% d'usage supplémentaire. Les utilisateurs choisissent leurs modèles sur la qualité, pas sur le tarif. Bref, ce n'est pas encore un marché de commodité. La course à la meilleure performance continue.
Alors oui, l'étude a ses limites car c'est une seule plateforme, et pas l'ensemble du marché. Mais avec 100 trillions de tokens, c'est quand même un sacré échantillon. Et ça dit des choses sur notre rapport à ces outils qu'on ne peut pas ignorer, encore une fois.












A en croire les forums d’utilisateurs, les applications de contrôles des enceintes sans fil sont toutes nulles. Quelle que soit la marque, elles sont inutilisables, buggées, lentes ou mal organisées. Sonos va bientôt présenter une mise à jour majeure de son application mobile : sera-t-elle toujours aussi “nulle” ?
La conception de l’ergonomie d’une application mobile, comme de toute interface entre l’homme et une machine au sens large du terme, est un travail extrêmement complexe. On ne peut pas se rendre compte à quel point si l’on ne s’intéresse pas au domaine. Du point de vue de l’utilisateur final, ce dernier s’attend dans toutes les situations à une solution parfaite répondant à 100% de ses besoins et de ses intentions.
Sauf que cela ne fonctionne pas ainsi.
J’ai lu différents livres techniques sur le sujet, j’ai créé des interfaces de contrôle pour la domotique et travaillé sur la conception d’applications mobiles. Ma conclusion : c’est un vrai métier. Malgré tout, il n’existe aucune interface parfaite, aucune application de commande parfaite. Sinon, ce serait la même que l’on trouverait partout. Et je parle ici aussi bien des applications mobiles pour les enceintes multiroom que les écrans tactiles dans une voiture moderne ou ceux d’un distributeur de billets. Les concepteurs font des choix qu’ils estiment de leur point de vue de spécialiste répondre aux attentes du plus grand nombre.
C’est là que se pose toute la problématique des interfaces : être comprise par le plus grand nombre.
Les concepteurs auront beau faire tout ce qu’ils peuvent, créer des milliers de prototypes, il y aura toujours des insatisfaits qui pensent que le résultat final est nul. En réalité, il ne répond tout simplement pas à leur schéma de pensée. Celui-ci mélange à la fois une culture, une expérience ou pas, l’appréciation du graphisme, des couleurs, des formes… Autant de critères multiples, différents d’un humain à un autre, qui font qu’aucune interface ne peut vraiment convenir à tout le monde.



Quelques exemples de livres de référence (en anglais) dédiés à l’ergonomie des interfaces
Alors, lorsque l’on lit sur les forums que telle application pour enceintes sans fil est ratée ou incompréhensible, c’est surtout qu’il n’y a pas d’adéquation entre les attentes et la proposition. Mais l’utilisateur n’a pas le choix. Il n’y a qu’une seule interface pour un appareil donné. Soit on s’y habitue, soit on doit aller voir ailleurs et changer de matériel. Aucune alternative n’est possible.
Évidemment, les plus mécontents, ceux qui crient le plus fort et qui sont les plus visibles, pensent toujours détenir la vérité. Comme on dit, quand on est satisfait, on ne va pas le crier sur tous les toits, contrairement à ceux qui ne le sont pas. Ce sont donc ces derniers qui sont vus, ce qui pourrait laisser croire qu’ils représentent la vérité. Alors qu’ils ne sont qu’une minorité à se plaindre contre une immense majorité silencieuse satisfaite de l’interface proposée par le fabricant de son enceinte sans fil multiroom.
A ce propos, d’un point de vue général, lorsqu’un utilisateur découvre sa première enceinte connectée et donc sa première interface sur smartphone, il va automatiquement s’y habituer. C’est son premier contact avec ce type d’interface. Il découvre, il enregistre dans son cerveau que ça marche comme ça et il s’y adapte. C’est ainsi que fonctionnent la plupart des êtres humains. Les autres sont ceux qui ont plus d’expérience, ils comparent et se mettent ainsi à peser le pour et le contre et à se créer des attentes : j’aime bien ceci sur cette interface, cela sur telle autre. Ils imaginent dans leur tête l’interface parfaite en se pensant ergonomes. Cette fameuse interface parfaite qui n’existe toujours pas… Ils sont juste ergonomes pour eux-mêmes.
J’ai un autre exemple qui illustre mon point de vue. Lorsque je créais des interfaces pour des systèmes domotique, j’ai proposé à différents clients une page d’accueil avec un plan de la maison. On pouvait d’un coup d’œil visualiser l’état de la lumière ou la température dans chaque pièce, puis sélectionner celle que l’on souhaitait contrôler. Cette expérience m’a permis de me rendre compte que certains clients appréciaient, et d’autres pas du tout. Ceux qui ne voulaient pas de ce type d’ergonomie avaient un problème tout simple : ils étaient incapables de visualiser rapidement leur maison à travers un plan. Cela leur demandait trop d’effort de mise en situation.
Les concepteurs d’interfaces pour applications mobiles prennent en compte de nombreux paramètres lors de la création puis pour toute itération ultérieure. Ils se basent évidemment sur les retours des utilisateurs et sur bien d’autres choses : l’évolution de tous les types d’interfaces en général auxquelles nous sommes confrontés au quotidien, les tendances graphiques, les polices d’écriture, leur taille, leur poids, l’évolution de la taille des écrans des interfaces, etc. Ils doivent aussi prendre en compte les nouvelles fonctions des produits à adapter à l’existant.
Dans le multiroom, on observe que les interfaces des différents fabricants d’enceintes sans fil et de lecteurs réseau se copient souvent les uns les autres. Certains tentent des choses qui sortent de l’ordinaire pour revenir sur des basiques bien implantés. Prenons justement l’exemple de l’application Sonos. Elle a permis d’imposer petit à petit la barre de menu horizontale au bas de l’écran permettant de naviguer entre les fonctions principales : accueil, lecture, recherche, paramètres. D’autres n’avaient pas retenu cette ergonomie et écarté ce menu au bas de l’écran, tels que BluOS et MusicCast. Et puis en 2023, BluOS comme MusicCast ont sorti des mises à jour majeures de leurs interfaces faisant apparaître la barre de menu horizontale !
Et bien en 2024, Sonos abandonne la barre de menu au bas de l’écran. Les premières captures que l’on peut voir de la nouvelle app Sonos illustrent une toute nouvelle proposition. Est-ce pour autant un retour en arrière ? A la place, on trouve une zone dynamique selon l’écran en cours de consultation. Par exemple : la lecture en cours depuis la page d’accueil, le multiroom depuis la page de lecture.

Pour rappel, vous avez ci-dessous à gauche la toute première app Sonos en 2010, sans barre de menu horizontale. A droite, c’est l’app Sonos actuelle avec sa barre de menu, avant la mise à jour à venir.


Cette nouvelle évolution de l’app Sonos répond à des choix d’ergonomie mûrement réfléchis, après sans doute d’innombrables heures de test. Si Sonos abandonne un élément d’interface qui s’était généralisé, comme la barre de menu en bas, c’est qu’ils pensent que l’on peut faire mieux et différemment. Avec toujours ce même objectif : être compris et assimilable par le plus grand nombre, facilement pour les nouveaux utilisateurs, sans créer de rupture pour les utilisateurs existants. Mais sûrement pas pour répondre aux mécontents notoires des forums.
Je testerai en détail cette nouvelle version majeure de l’app Sonos dès sa sortie pour vous donner mon avis ici même. Elle devrait être disponible le 7 mai prochain.
Source : The Verge
L’intelligence artificielle à toutes les sauces, on ne parle que de ça. On nous dit aussi que les applications sont sans limite et que ce sera un véritable raz-de-marée. Qu’en est-il des systèmes audio connectés ? De quelle façon l’IA pourrait faciliter l’utilisation du multiroom au quotidien ?
Les deux grands géants de la tech que sont Amazon et Google ont déjà sauté sur l’occasion. Du côté de Google, l’IA arrive dans l’app domotique Home permettant de contrôler tous les équipements connectés compatibles. L’idée est de proposer un assistant qui va créer les “routines”. Par exemple, en tapant une phrase simple du type “quand j’arrive le soir entre 18h et 20h, allume la musique dans le salon et lance telle webradio”, l’IA de Google est alors censée programmer tout cela toute seule.
Amazon annonce qu’Alexa va devenir proactive en silence. C’est-à-dire qu’elle saura, en analysant les remontées des capteurs, ce qu’il faut faire. Et elle le fera. Par exemple, si elle détecte une présence et qu’il fait sombre, alors elle allumera la lumière sans demander. D’autre part, Alexa sera capable d’interpréter des phrases naturelles telles que “j’ai froid” et d’augmenter le chauffage toute seule. Si on lui dit “ça manque de musique ici”, lancera-t-elle ma playlist préférée ?
Etrangement, Apple n’a pas encore d’outils ni d’applications liées à l’intelligence artificielle. Apple se repose pour l’instant sur le contrôle vocal avec Siri. Il n’y a pas d’information au sujet d’une possible évolution de l’assistant vers plus d’intelligence artificielle. Au contraire, on entend parler d’une éventuelle nouvelle enceinte HomePod avec un écran. Ce qui signifie plus d’interaction physique avec le produit, à l’opposé de l’intelligence artificielle.

Chez Savant, un système domotique très répandu aux Etats-Unis, on indique travailler depuis 5 ans sur le Savant AI Engine. A la lecture des détails, on comprend qu’il est associé à Siri d’Apple et qu’il interprète les phrases naturelles. Mais quand on creuse un peu plus, on a vraiment l’impression que ce sont plus des algorithmes améliorés que réellement de l’intelligence artificielle. Rien de révolutionnaire pour l’instant, mais ça pourrait évoluer.
En revanche, côté musique, ça bouge avec l’IA. Le service de transfert de playlists Soundiiz, la plateforme multimédia Plex, le lecteur audio HiFi Roon ou encore l’application de lecture Volumio ont tous présenté leur service de génération de playlists via IA. Cela consiste à analyser vos goûts, donc votre historique de lecture, et à construire de nouvelles listes de musique intelligentes qui devraient vous plaire à coup sûr.
Crestron a beaucoup évolué dernièrement dans le contrôle de la musique en multiroom grâce à sa gamme NAX. Il est plus simple de piloter de multiples sources vers différentes pièces, le tout à travers l’application unifiée Crestron Home OS. Cependant, cet acteur majeur de la domotique n’a pas encore intégré d’IA dans ses produits, ni multiroom, ni les autres. Peut-être une nouveauté future majeure à venir dans ce domaine ?

On est encore loin d’une véritable IA qui apprend de nos habitudes et qui s’adapte et évolue en conséquence. Voilà un exemple. Chaque vendredi soir, après une semaine de travail bien remplie, je lance toujours la playlist “funky chill” dans mon salon. Et puis un vendredi soir, je rentre et je ne lance pas la musique. Normalement, l’IA devrait me demander :
Dave (dédicace aux cinéphiles), voulez-vous que je lance votre playlist funky chill habituelle ?
Ce n’est peut-être pas de ça dont on a envie, mais ça aurait quand même du panache ! On pourrait réellement parler d’intelligence artificielle. Celle qui apprend, qui analyse, qui s’adapte et qui anticipe. Le tout pour faciliter nos usages et nos actions. Si une IA multiroom fait son apparition, vous serez les premiers prévenus !