Vue normale

Concours Mace Robotics : un Raspberry Pi 5 (et un Pico 2W) à gagner !

Derrière Macé Robotics, Nicolas mêle réparation électronique au composant et conception de cartes pour des besoins professionnels, tout en développant des robots mobiles pour l’éducation et la recherche. On trouve notamment des projets de robots basés sur Raspberry Pi et Raspberry Pi Pico (MRPi1, MR-Pico), accompagnés de contenus et documentations. Dans ce contexte, il organise […]

Cet article Concours Mace Robotics : un Raspberry Pi 5 (et un Pico 2W) à gagner ! a été publié en premier sur Framboise 314, le Raspberry Pi à la sauce française.....

Enfin un smartphone qui apporte quelque chose de nouveau

26 janvier 2026 à 18:28

Vous pensiez que le marché du smartphone ennuyeux ? Cela s'entend, même si le TriFold est surprenant. Maos attendez de voir ce que prépare OrangePi. La marque, célèbre pour ses alternatives au Raspberry Pi, vient de lever le voile sur un concept de téléphone qui ignore superbement toutes les règles actuelles du design industriel pour se concentrer sur une seule chose : la liberté totale de bidouiller.
 [Lire la suite]

Retrouvez un résumé du meilleur de l’actu tech tous les matins sur WhatsApp, c’est notre nouveau canal de discussion Frandroid que vous pouvez rejoindre dès maintenant !

C’est quoi Clawdbot, le programme qui permet à l’IA de contrôler votre ordinateur ?

26 janvier 2026 à 09:44

Clawdbot, un assistant personnel dopé à l’IA, promet de gérer mails, navigation web, scripts et même domotique à votre place. Mais son succès fulgurant, et la façon dont il est déployé, en font déjà l’un des outils les plus fascinants… et les plus sensibles du moment.

Raspberry Pi Flash Drive : une clé usb en aluminium signée Raspberry Pi

Par : Sebastien
26 janvier 2026 à 09:31

La fondation Raspberry Pi, à qui l'on doit les cartes du même nom vient d'annoncer la sortie d'un nouveau produit : le Raspberry Pi Flash Drive.

The post Raspberry Pi Flash Drive : une clé usb en aluminium signée Raspberry Pi first appeared on Bhmag.

Tau5 - Le successeur de Sonic Pi se met à l'IA

Par : Korben
24 janvier 2026 à 10:07

Vous connaissez Sonic Pi, ce logiciel génial pour coder de la musique que je vous ai déjà présenté ? Hé bien Sam Aaron, son créateur, remet le couvert avec son nouveau projet baptisé Tau5.

Si vous avez déjà testé le live coding, vous savez comme moi que c'est une joie totale de pouvoir balancer des boucles en tapant quelques lignes de code, mais là Sam pousse le délire beaucoup plus loin. Ce nouveau joujou, c'est un peu le grand frère de Sonic Pi, pensé dès le départ pour la collaboration, mais aussi la sécurité et la compatibilité web.

Sam Aaron lors de sa keynote GOTO 2025

L'ambition de Tau5 c'est que l'outil puisse à terme intégrer des agents IA via le protocole MCP. Bien sûr, l'objectif n'est pas de remplacer le musicien (ouf !), mais de lui offrir un partenaire d'improvisation qui pourrait l'aider à crafter des boucles ou ajuster des paramètres. C'est en tout cas la vision que Sam a partagée lors de sa keynote au GOTO 2025.

Sous le capot, le système repose sur la machine virtuelle Erlang (BEAM), sur laquelle tourne aussi Elixir. C'est une architecture connue pour sa tolérance aux pannes, comme ça même si vous faites une erreur de syntaxe en plein set, le système encaisse sans que tout s'effondre et vous colle la honte avec des gens qui viendront vous dire à la fin de votre concert : "Hahaha, c'est nul t'es trucs d'IA, ça marche pas, tu vois bien que l'humain n'est pas prêt d'être remplacé ! Hahaha, loser"

Pour ceux qui se demandent ce que ça change par rapport à Sonic Pi, c'est surtout la dimension collaborative qui est mise en avant pour le futur. Avec cette nouvelle mouture, l'objectif c'est de permettre à plusieurs personnes de coder ensemble, potentiellement assistées par une IA. Je trouve que c'est une évolution de la création musicale par ordi plutôt logique vers quelque chose de plus connecté.

Si le sujet vous branche, je vous remets le lien vers mon article sur la découverte de Sonic Pi , histoire de voir d'où on part. Bref, tout ça reste trèss fidèle à la philosophie de Sam qui est depuis le début de rendre le code accessible et créatif à tous.

Bref, si vous aimez la musique, le code, ou juste voir des gens brillants repousser les limites, jetez un œil à sa présentation ou au dépôt GitHub .

DietPi root SSH

22 janvier 2026 à 17:02

Pour se connecter en root sur DietPi avec sa clé SSH.

On met sa clé publique dans:

nano ~/.ssh/authorized_keys

On regarde si le paramètre "disable_ssh_password_logins" est à 0 = connexion via username/password admis

cat /boot/dietpi.txt  | grep SSH

On change ledit paramètre:

/boot/dietpi/func/dietpi-set_software disable_ssh_password_logins 1
cat /boot/dietpi.txt  | grep SSH

On ne se déconnecte SURTOUT PAS ET ON TESTE ! Si ça marche, on peut se déconnecter.


Permalink

Raspberry Pi 5 : 4 alternatives plus puissantes (et parfois moins chères) pour vos projets

Le Raspberry Pi 5 a ce charme rare : un petit ordinateur abordable, étonnamment costaud, et un écosystème si vaste qu’il donne envie de monter un projet « juste pour voir ». Mais, c’est justement parce qu’il est devenu une référence qu’on oublie parfois une évidence : le Raspberry Pi n’est pas le meilleur choix pour tout. Si votre objectif […]

L’article Raspberry Pi 5 : 4 alternatives plus puissantes (et parfois moins chères) pour vos projets est apparu en premier sur BlogNT : le Blog des Nouvelles Technologies.

Raspberry Pi Imager 2.0.4 : l’outil de flash qui arrête enfin de vous saboter les grosses cartes SD

Il y a deux types de frustration quand on prépare une carte pour un Raspberry Pi : celle qui se voit (un message d’erreur), et celle qui vous piège (un flash « réussi »… mais une carte corrompue au boot). Avec Raspberry Pi Imager 2.0.4, la fondation s’attaque précisément à ce second scénario — en fiabilisant le formatage FAT32 sur […]

L’article Raspberry Pi Imager 2.0.4 : l’outil de flash qui arrête enfin de vous saboter les grosses cartes SD est apparu en premier sur BlogNT : le Blog des Nouvelles Technologies.

Torrent Peek – L’outil indispensable pour vérifier si votre VPN ne vous lâche pas en plein torrent

Par : Korben
18 janvier 2026 à 07:13

J'espère que vous passez une bonne semaine et que votre connexion internet ne vous fait pas trop la misère en ce moment...

Car aujourd'hui, on va parler d'un truc qui devrait intéresser tous ceux qui utilisent un VPN (ou qui pensent en utiliser un, un jour) pour leurs activités un peu... gourmandes en bande passante. Vous le savez, je le sais, BitTorrent c'est génial, mais c'est aussi un moyen facile de se retrouver avec son adresse IP exposée aux trackers et aux pairs du swarm. Et même avec un tunnel sécurisé, on peut toujours être victime d'une fuite en cas de mauvaise configuration ou de rupture du VPN.

Et là, y'a toujours Hadopi (enfin, ce qu'il en reste) qui pour justifier leur budget annuel vous enverra un petit message de menace automatique. Pas de communication non violente ici ^^.

C'est précisément là qu'intervient Torrent Peek , un petit outil qui est gratuit et sans inscription et qui va vous permettre de vérifier si votre protection est efficace ou si elle laisse filtrer votre IP. Pour cela, le site génère un lien magnet unique que vous ouvrez dans la plupart des clients torrent (uTorrent, Transmission, Deluge, etc.).

Une fois le lien ajouté, votre client va tenter de se connecter aux trackers du site, et hop ! Torrent Peek affichera alors l'adresse IP qu'il voit passer. Si c'est celle de votre VPN, c'est un bon signe. Si c'est votre vraie IP... eh bien vous êtes dans la mierda ^^.

Car même avec un VPN actif, une défaillance du "kill switch" ou un trafic qui sort du tunnel peut exposer votre identité réelle. Notez d'ailleurs que l'exposition peut aussi se faire via DHT ou PEX, ce que ce test ne couvre pas forcément, mais c'est déjà une excellente première vérification côté trackers.

Le truc cool avec cet outil, c'est qu'il propose aussi une API JSON pour ceux qui aiment bien automatiser leurs tests ou surveiller leur connexion via un petit script maison. Il suffit de faire un petit curl sur l'URL fournie pour obtenir le statut de votre connexion à l'instant T.

D'ailleurs, si vous voulez aller plus loin dans la bidouille torrentielle, je vous recommande de jeter un œil à cet article pour ouvrir des liens magnet directement avec VLC (moyennant un petit plugin), car c'est super pratique.

Voilà, ça vous permettra de vérifier que vous ne faites pas n'importe quoi quand vous téléchargez des ISO Linux toute la nuit 😅...

LangExtract - La nouvelle pépite de Google pour extraire des données structurées avec l'IA

Par : Korben
16 janvier 2026 à 15:05

Il y a des combats comme cela auxquels pas grand monde ne pense et qui pourtant sont très importants. Je parle évidemment de la lutte contre le chaos du texte non structuré. Si vous avez déjà essayé d'extraire des données propres d'un tas de PDF (après OCR), de rapports ou de notes griffonnées, vous voyez de quoi je parle : c'est l'enfer ! (oui j'aime me faire du mal en tentant des regex impossibles).

Heureusement, Google a lâché début janvier 2026 une petite pépite en open source (même si c'est pas un produit "officiel") qui s'appelle LangExtract . C'est une bibliothèque Python qui utilise la puissance des LLM pour transformer vos documents textuels en données JSON bien rangées.

Exemple d'extraction sur le texte de Roméo et Juliette ( Source )

Ce qui fait que LangExtract sort du lot par rapport à d'autres outils comme Sparrow , c'est surtout son système de Source Grounding. En gros, chaque info extraite est directement liée à sa position exacte dans le texte source. Ça facilite énormément la vérification et la traçabilité puisque vous pouvez voir visuellement d'où vient la donnée grâce à un système de surlignage automatique.

Sous le capot, l'outil est optimisé pour les documents à rallonge (le fameux problème de l'aiguille dans une botte de foin). Il utilise des stratégies de découpage de texte et de passes multiples pour améliorer le rappel et s'assurer que le maximum d'infos soit capturé.

La visualisation interactive permet de valider les données en un clin d'œil ( Source )

Et cerise sur le gâteau, il permet de générer un fichier HTML interactif pour visualiser les milliers d'entités extraites dans leur contexte original. À la cool !

Côté installation, c'est hyper fastoche :

pip install langextract

Pour faire le job, vous avez le choix des armes : les modèles cloud de Google (Gemini 2.5 Flash/Pro), ceux d'OpenAI (via pip install langextract[openai]), ou carrément du local avec Ollama . Pas besoin de passer des heures à fine-tuner un modèle, il suffit de fournir quelques exemples structurés via le paramètre examples et hop, c'est parti mon kiki.

Voici à quoi ça ressemble sous le capot pour lancer une machine à extraire :

import langextract as lx

# 1. On définit les règles du jeu
prompt = "Extraire les noms de personnages et leurs émotions."

# 2. On donne un exemple (few-shot) pour guider le modèle
examples = [
 lx.data.ExampleData(
 text="ROMEO. But soft! What light...",
 extractions=[lx.data.Extraction(extraction_class="character", extraction_text="ROMEO", attributes={"emotion": "wonder"})]
 )
]

# 3. On lance l'extraction (nécessite une clé API ou Ollama)
results = lx.extract(
 text_or_documents="votre_texte_brut_ici",
 prompt_description=prompt,
 examples=examples,
 model_id="gemini-2.5-flash"
)

# 4. On sauvegarde et on génère la visualisation HTML
lx.io.save_annotated_documents(results, output_name="results.jsonl")
html_content = lx.visualize("results.jsonl")
with open("view.html", "w") as f:
 f.write(html_content)

Honnêtement, je ne sais pas si ça va remplacer les solutions industrielles de RPA , mais pour un dev qui veut structurer du texte sans se prendre la tête, c'est vraiment impressionnant. Que vous fassiez du Grist ou de l'analyse de données pure, cet outil mérite clairement que vous y jetiez un œil !

Source

Ces rats jouent à DOOM avec un casque VR

Par : Korben
16 janvier 2026 à 14:14

Vous pensiez avoir tout vu en matière de projets geeks complètement déjantés ?

Hé bien accrochez-vous à vos slips, parce que des chercheurs, menés par le neuro-ingénieur Viktor Tóth, ont réussi à faire "jouer" des rats à DOOM. Pas en appuyant sur des boutons au hasard, non non, mais avec un casque de réalité virtuelle sur mesure, une boule de déplacement sous leurs pattes, et même une gâchette pour tirer sur les démons !

Je vous jure que c'est vrai. Le projet s'appelle " Rats Play DOOM " et c'est à la croisée de la neuroscience, de la robotique et du game design. L'idée de base, c'est de prouver qu'on peut entraîner des rongeurs à interagir avec des environnements virtuels contrôlés basés sur un moteur de jeu. Et quitte à faire ça, autant le faire avec le jeu le plus iconique des années 90.

Gros plan sur le casque VR panoramique pour rongeurs ( Source )

Le setup est assez dingue. Le rat est équipé d'un casque panoramique intégrant un écran AMOLED pliable qui offre 180 degrés de champ horizontal et 80 degrés de vertical. Il est installé sur une boule sphérique qui détecte ses mouvements via des capteurs, un peu comme une trackball géante. Quand il marche, court ou tourne, ça se traduit directement en déplacements dans le jeu.

Et pour ceux qui se demandent comment un rat peut vraiment dégommer des monstres... Hé bien oui, car Viktor a même fabriqué un levier custom avec un encodeur rotatif que le rat actionne avec ses pattes pour faire feu. Donc oui, les rats tirent sur des démons avec leurs petites papattes !

Le nouveau setup modulaire V2 ( Source )

Pour motiver nos petits rongeurs gamers, y'a évidemment un système de récompense. À chaque action réussie, le système distribue 10 microlitres d'eau sucrée via un solénoïde. C'est pas grand-chose mais pour un rat, c'est le graal. Au bout de deux semaines d'entraînement environ, les rats Todd, Kojima et Gabe (oui, ils ont des noms de légendes du jeu vidéo, on adore l'humour des chercheurs) ont réussi à naviguer dans l'environnement virtuel. Et là, ils ont même appris à déclencher le mécanisme de tir.

Bon, faut être honnête, ils n'ont pas encore terminé le jeu. L'équipe explique que les rats ont vieilli avant de pouvoir passer à l'entraînement avancé. Du coup, c'est plus une preuve de concept qu'un speedrun, mais quand même, c'est impressionnant. On est loin du simple contrôle neuronal de base, là car c'est une vraie interaction avec un moteur de jeu.

Setup V1 du projet Rats Play DOOM ( Source )

Côté technique, tout tourne sur un combo Raspberry Pi pour l'acquisition des capteurs en temps réel, et un PC qui fait tourner une version modifiée de ViZDoom. Le tout communique en TCP et hop, c'est géré par un script Python central. Et comme si ça suffisait pas, le projet est entièrement open source. Vous pouvez récupérer le code, les schémas électroniques et même les fichiers 3D pour imprimer les pièces sur le repo GitHub. Donc si vous avez un rat de compagnie et beaucoup trop de temps libre...

Le projet en est à sa deuxième version. Cette V2 est plus modulaire, avec des composants imprimables en 3D et une électronique plus fiable. C'est typiquement le genre de bidouille qui me rappelle pourquoi j'aime tant farfouiller dans les projets Raspberry Pi les plus improbables ^^.

D'ailleurs, si vous êtes fan de portages improbables, vous vous souvenez peut-être de cet article sur DOOM Retro , mais là avec les rats, on est clairement passé au niveau supérieur.

Bref, on vit vraiment une époque formidable où des gens financent des projets pour apprendre à des rats à buter des démons en VR. Et j'adore l'idée !

Raspberry Pi AI HAT+ 2 : 40 TOPS et 8 Go de RAM pour faire tourner Llama 3 en local !

Raspberry Pi veut démocratiser le « GenAI à la maison » sans passer par le cloud. Sa nouvelle carte d’extension AI HAT+ 2, vendue 145 euros, promet de transformer un Raspberry Pi 5 en petite station d’inférence capable de faire tourner des modèles génératifs directement sur la carte, avec un accent clair sur la latence, la confidentialité et la sobriété […]

L’article Raspberry Pi AI HAT+ 2 : 40 TOPS et 8 Go de RAM pour faire tourner Llama 3 en local ! est apparu en premier sur BlogNT : le Blog des Nouvelles Technologies.

Raspberry Pi AI HAT+ 2 : vision par ordinateur en vidéo avec Hailo-10H (Partie 2)

Dans cette seconde partie, le Raspberry Pi 5 passe à l’action avec la vidéo temps réel accélérée par Hailo-10H. Détection de personnes, cadrage dynamique, pose squelette et reconnaissance des mains : on enchaîne les modèles concrets. L’objectif est d’évaluer les performances réelles, les limites, et les bons compromis en situation réelle. Ici, pas de cloud […]

Cet article Raspberry Pi AI HAT+ 2 : vision par ordinateur en vidéo avec Hailo-10H (Partie 2) a été publié en premier sur Framboise 314, le Raspberry Pi à la sauce française.....

💾

Raspberry Pi AI HAT+ 2 : installer Hailo-10H et lancer un LLM local (Partie 1)

Avec la Raspberry Pi AI HAT+ 2, Raspberry Pi propose une carte intégrant directement un accélérateur Hailo-10H et 8 Go de mémoire dédiée, conçue pour le Raspberry Pi 5. Cette carte permet d’exécuter localement des modèles d’IA générative, des LLM et des Vision-Language Models, sans recours au cloud. L’AI HAT+ 2 délivre jusqu’à 40 TOPS […]

Cet article Raspberry Pi AI HAT+ 2 : installer Hailo-10H et lancer un LLM local (Partie 1) a été publié en premier sur Framboise 314, le Raspberry Pi à la sauce française.....

{ Tribune Expert } – Observabilité en 2026 : quand l’IA redéfinit les règles du jeu

9 janvier 2026 à 12:07

L’observabilité a beaucoup évolué au cours de la dernière décennie, à l’époque où on l’appelait encore monitoring. Si auparavant, la technologie servait principalement à maintenir les services et les systèmes en état de marche, l’essor des expériences numériques en fait un outil essentiel pour la continuité d’activité, alimentant la prise de décision pour améliorer la satisfaction des clients, prévenir une défaillance ou même pour déterminer quels produits développer.

Aujourd’hui, l’IA déclenche un nouveau séisme et les pratiques d’observabilité doivent assumer des responsabilités plus lourdes encore : superviser les workloads complexes et dynamiques de l’IA pour en garantir la performance et la fiabilité. Cette évolution fait de l’observabilité non seulement un véritable fondement de l’expérience client, mais aussi un facteur clé d’innovation et de croissance dans les entreprises axées sur l’IA.

De la réaction à l’anticipation avec l’observabilité prédictive

 Pendant des années, l’observabilité s’est limitée à répondre aux questions : « Qu’est-ce qui s’est passé ? » et « Pourquoi ? ». En 2026, ce paradigme bascule radicalement. Les plateformes d’observabilité deviennent des systèmes d’intelligence pilotés par l’IA, capables non seulement d’expliquer les incidents, mais de les anticiper, de les corriger automatiquement et d’effectuer une auto-réparation pilotée par une IA générative et agentique.

Cette révolution s’appuie sur des LLM et des techniques de recherche augmentée (RAG) appliquées à la télémétrie privée des entreprises : les cahiers de procédures s’automatisent, la corrélation des données s’accélère et l’analyse des causes profondes devient instantanée. Plus besoin de naviguer dans des tableaux de bord complexes ; le langage naturel devient l’interface privilégiée pour interroger les données d’observabilité.

L’observabilité au service de la stratégie métier

Mais cette IA ne doit pas servir qu’à optimiser les performances techniques. Les organisations les plus matures établissent une corrélation directe entre les signaux techniques et l’impact métier réel. Les indicateurs évoluent : ils ne mesurent plus seulement la latence ou la disponibilité des serveurs, mais le revenu à risque, le coût par demande et l’impact sur l’expérience client.

Cette approche business-centric redéfinit les priorités IT. Chaque décision d’infrastructure, chaque investissement en observabilité, doit être justifié par son impact sur les SLO (objectifs de niveau de service), le MTTR (Mean Time To Resolution) et, à terme, sur la satisfaction et la fidélité des clients. 2026 marque la fin de l’IT en silo, déconnectée des enjeux métiers.

Maîtriser les coûts : l’enjeu oublié de l’observabilité

 Les factures d’observabilité explosent. C’est malheureusement une réalité pour de nombreuses entreprises. Elles font face à des surcoûts imprévus liés à l’ingestion de données, à la cardinalité élevée et aux fonctionnalités premium. En conséquence, beaucoup consolident leurs chaînes d’outils fragmentées et renforcent le contrôle des coûts liés à l’ingestion, au stockage et à la conservation des données. Pour cela, les organisations se tournent vers les plateformes unifiées, la consolidation étant perçue comme un gain à la fois en termes de coûts et de productivité.

Mais attention : la consolidation ne suffit pas. En 2026, les utilisateurs finaux devront aller au-delà des économies globales et examiner attentivement le modèle de facturation automatique de chaque fournisseur. Les prix liés à ces surcoûts peuvent encore générer des factures d’un montant inattendu si la croissance des données n’est pas étroitement contrôlée.

De même, les acheteurs doivent évaluer la puissance des capacités de gestion du pipeline de données de chaque plateforme (filtrage, routage, fédération et stockage hiérarchisé, par exemple) afin de pouvoir déterminer activement quelles données sont collectées, où elles sont stockées et combien de temps elles seront conservées. Ce n’est qu’en combinant la consolidation avec une facturation transparente et des contrôles rigoureux du pipeline que les organisations peuvent maintenir les dépenses d’observabilité à un niveau prévisible et alignées sur la valeur qu’elles tirent des données. 

OpenTelemetry : la norme qui libère

L’émergence d’OpenTelemetry (OTel) comme standard par défaut marque un tournant majeur. Finie l’époque des agents propriétaires verrouillant les organisations dans des écosystèmes fermés : OTel offre une architecture ouverte et interopérable pour l’ingestion de métriques, de logs et de traces.

Ce qui différenciera les organisations en 2026, ce ne sera plus l’ingestion des données, mais ce qu’elles en font après : analyses à haute cardinalité, espaces de travail guidés par l’IA, workflows intelligents. L’ouverture du standard crée un terrain de jeu égal, où l’innovation se concentre sur la valeur, pas sur le verrouillage technologique.

L’observabilité au cœur de l’IA et du cloud complexe

 L’explosion des workloads d’IA et des architectures cloud hyperscale impose une nouvelle norme : l’observabilité des LLM et des agents IA. En 2026, superviser la latence, le coût et le comportement des modèles de langage deviendra aussi critique que de monitorer une base de données. La gouvernance des agents IA, la visibilité des pipelines IA, le suivi des ressources GPU… autant de domaines où l’observabilité devient indispensable.

Parallèlement, les environnements hybrides et à l’edge demeurent ancrés dans le cloud natif et Kubernetes, mais l’observabilité y joue un rôle nouveau : elle devient le catalyseur d’expériences numériques résilientes basées sur l’IA et les API.

En 2026, l’observabilité ne sera pas une simple évolution technologique. C’est une refonte complète du modèle : de la réaction à l’anticipation, de l’infrastructure aux résultats métiers, de la complexité à la transparence, et de l’isolement à l’intégration écosystémique. Les organisations qui maîtriseront ces quatre piliers (observabilité prédictive, alignement métier, maîtrise des coûts et standardisation ouverte) seront celles qui tireront le maximum de valeur de leurs données et de leurs systèmes. Les autres risquent de rester bloquées dans une observabilité fragmentée, coûteuse et inefficace.

*Stéphane Estevez est EMEA Observability Market Advisor chez Splunk

The post { Tribune Expert } – Observabilité en 2026 : quand l’IA redéfinit les règles du jeu appeared first on Silicon.fr.

Bose libère l'API de ses enceintes SoundTouch avant leur fin de vie

Par : Korben
8 janvier 2026 à 12:58

Si comme moi vous avez une enceinte Bose SoundTouch qui traîne chez vous, vous avez peut-être appris que la bestiole allait bientôt perdre son cerveau "cloud". Bose a en effet annoncé la fin du support pour le 6 mai 2026, et de ce que j'ai compris, ça veut dire que votre enceinte va se transformer en brique connectée qui ne se connecte plus à grand chose.

Sauf que non !

Bose a fait un truc plutôt cool puisqu'ils ont publié la documentation complète de l'API locale de leurs enceintes . Du coup, même quand les serveurs Bose fermeront boutique, vous pourrez continuer à bidouiller votre enceinte en local.

Perso, j'ai une petite SoundTouch 10 qui fait bien le boulot depuis des années, donc cette nouvelle me fait plutôt plaisir ! L'API tourne sur deux ports : le 8090 pour les commandes REST classiques (volume, presets, now_playing...) et le 8080 en WebSocket pour les notifications en temps réel. Le protocole s'appelle "gabbo", et avec ça, y'a de quoi faire le ménage dans vos automatisations.

Un petit curl http://votre-enceinte:8090/volume et vous récupérez le niveau sonore. Un autre sur /presets et vous avez vos stations favorites. Et comme la découverte se fait en SSDP ou MDNS, ça s'intègrera nickel avec n'importe quel système domotique.

Et visiblement la communauté n'a pas attendu pour s'y mettre puisqu'il y a déjà plus d'une centaine de projets sur GitHub qui exploitent cette API. Le plus abouti c'est probablement SoundTouchPlus pour Home Assistant, qui permet de contrôler toute la famille d'enceintes depuis votre dashboard.

Après ce qui va disparaître avec le cloud, c'est surtout les presets synchronisés et le streaming direct depuis l'app Bose. Mais le Bluetooth, l'AirPlay, Spotify Connect et le multiroom resteront fonctionnels et avec l'API locale, vous pouvez recréer vos presets en dur. Ouf !

C'est un peu le même délire que ce qui s'est passé avec les thermostats Nest ... quand le fabricant lâche l'affaire, c'est la communauté qui prend le relais sauf qu'ici, Bose joue le jeu en documentant proprement leur API avant de couper les serveurs. Et ça, c'est suffisamment rare pour être souligné !

Voilà... Si vous avez des SoundTouch, allez jeter un œil à l'API avant mai, histoire de préparer votre migration vers du 100% local.

Source

Pimmich – Un cadre photo connecté open source basé sur Raspberry Pi

Aujourd’hui, je vous propose de découvrir Pimmich, un cadre photo connecté open source basé sur Raspberry Pi, pensé pour afficher vos souvenirs sans cloud ni abonnement, en restant 100% local. Avec les récents changements côté Google Photos, beaucoup d’entre vous ont dû revoir leurs habitudes… et Aurélien a eu le bon réflexe : s’appuyer sur […]

Cet article Pimmich – Un cadre photo connecté open source basé sur Raspberry Pi a été publié en premier sur Framboise 314, le Raspberry Pi à la sauce française.....

Et si votre Wi-Fi suivait votre posture

3 janvier 2026 à 09:44
Wi-Fi et CSI pour estimer la posture sans caméra, avec API et analytics, un progrès technique aux risques de surveillance....

Raspberry Pi 5 + SSD : installer YunoHost, HTTPS Let’s Encrypt et WordPress (pas à pas)

Installer un serveur perso chez soi, sur un Raspberry Pi 5 ou un Pi 500+, c’est à la portée de tout maker… à condition de suivre la bonne méthode. Dans cet article, on va poser YunoHost sur un SSD NVMe, faire la post-installation, installer une première appli (WordPress), puis rendre le serveur accessible depuis l’extérieur […]

Cet article Raspberry Pi 5 + SSD : installer YunoHost, HTTPS Let’s Encrypt et WordPress (pas à pas) a été publié en premier sur Framboise 314, le Raspberry Pi à la sauce française.....

❌