Vue normale

Reçu aujourd’hui — 3 décembre 2025

#FrandroidOffreMoi un excellent casque JBL Tour One M3

3 décembre 2025 à 16:08

L'excellent casque JBL Tour One M3 reviendra gratuitement à la personne qui remportera le concours du 3e jour de notre calendrier de l'Avent 2025 #FrandroidOffreMoi.
 [Lire la suite]

Tous nos articles sont aussi sur notre profil Google : suivez-nous pour ne rien manquer !

Test Medion Erazer Beast 16 X1 Ultimate : une bête de gaming, mais il y a un hic

3 décembre 2025 à 16:00
Le Medion Erazer Beast 16 X1 est un PC portable à vocation gaming doté d'un processeur Intel Core Ultra 9 275HX de génération Arrow Lake-HX et d'une carte graphique Nvidia GeForce RTX de série 50 mobile. Rachetée par Lenovo il y a trois ans, la marque allemande s'attaque au jeu de très haut niveau avec un MSRP tout aussi notable. ## PrésentationWake...

Une rare interview/video de Linus Torvalds : Building the PERFECT Linux PC with Linus Torvalds

Linus Torvalds est invité dans cette toute récente vidéo sur la chaîne Linus Tech Tips. La vidéo dure presque une heure, ce qui est inhabituellement long pour cette chaîne, et permet de laisser s'exprimer un Linus Torvalds invité. Torvalds s'exprime sur de nombreux sujets tout en regardant un PC « idéal » être monté pour lui et ses travaux sur le noyau Linux.

Il discute du Libre, Gaming, Linux, Git, A.I., de son travail, dans une atmosphère bon enfant et avec un humour mordant.

Commentaires : voir le flux Atom ouvrir dans le navigateur

Aiper EcoSurfer Senti : le nouveau robot skimmer solaire qui nettoie et analyse l’eau de votre piscine

3 décembre 2025 à 11:47
Aiper at Piscina Barcelona 2025

Présenté en avant-première à Piscina Barcelona 2025 et promis pour un lancement en janvier 2026, l’EcoSurfer Senti est le prochain gros morceau de la feuille de route Aiper. Ce nouvel appareil, encore largement confidentiel au moment où nous écrivons ces lignes, doit être officiellement dévoilé au CES 2026 avant une disponibilité annoncée autour du 26 janvier 2026.

Contrairement aux robots de fond Scuba V3 et N3 (ce dernier étant une déclinaison blanche du V3), l’EcoSurfer Senti se positionne sur un tout autre terrain : celui de la surface et de la gestion intelligente de l’eau.

EcoSurfer Senti : un skimmer de surface proactif et solaire

Aiper présente l’EcoSurfer Senti comme le premier écumeur de surface proactif au monde, combinant intelligence artificielle et gestion de l’eau. Concrètement, le dispositif flotte à la surface, repère les débris grâce à de la vision artificielle, les capture de manière autonome et maintient la ligne d’eau propre sans intervention quotidienne de l’utilisateur.

EcoSurfer Senti skimmer Aiper
C’est encore un peu flou, mais le modèle ressemble à ceci… © Aiper

L’une de ses particularités est de s’appuyer sur l’énergie solaire pour fonctionner : comme les Surfer S1/S2, il est pensé pour rester en action quasiment en continu, sans câble ni recharge systématique. L’innovation va toutefois plus loin que le simple nettoyage mécanique. À l’instar du iSkim de Beatbot et de son clarifiant, l’EcoSurfer Senti intègre une chambre chimique “intelligente” capable de stocker et distribuer les produits nécessaires (correcteurs de pH, galets de chlore), avec pour objectif de maintenir une eau claire et équilibrée au fil du temps, sans multiplier les tests manuels ni les dosages approximatifs.

Vers une gestion intelligente et connectée de l’eau

Au-delà du hardware, l’EcoSurfer Senti s’inscrit dans une vision plus large : celle d’une piscine suivie et pilotée en continu. Le skimmer mesure les principaux paramètres de l’eau (pH, température, chlore, ORP…) et remonte ces informations dans une application mobile. L’utilisateur peut ainsi suivre l’état de son bassin, consulter l’historique, recevoir des alertes et laisser l’appareil ajuster automatiquement une partie du traitement.

finitions EcoSurfer Senti skimmer Aiper
Le niveau de finition a l’air de bonne qualité ! @thepoolguyml

Cette approche “care-taker” a d’ailleurs été saluée à Piscina Barcelona, où l’EcoSurfer Senti a été récompensé dans la catégorie Connectivité. Dans l’écosystème Aiper, il vient compléter les robots de fond comme les Scuba V3/N3 : ces derniers se chargent du fond, des parois et de la ligne d’eau, tandis que le Senti veille sur la surface et la chimie. Ensemble, ils esquissent une piscine où l’entretien devient de plus en plus discret, automatisé et piloté par la donnée.

Il ne reste plus qu’à mettre la main sur un exemplaire de test après le CES pour vérifier, en conditions réelles, si ce skimmer nouvelle génération tient toutes ses promesses !

💾

Profitez des vidéos et de la musique que vous aimez, mettez en ligne des contenus originaux, et partagez-les avec vos amis, vos proches et le monde entier.

Nouvelles sur l’IA de novembre 2025

Par :Moonz · volts · cli345
3 décembre 2025 à 10:07

L’intelligence artificielle (IA) fait couler de l’encre sur LinuxFr.org (et ailleurs). Plusieurs personnes ont émis grosso-modo l’opinion : « j’essaie de suivre, mais c’est pas facile ».

Je continue donc ma petite revue de presse mensuelle. Disclaimer : presque aucun travail de recherche de ma part, je vais me contenter de faire un travail de sélection et de résumé sur le contenu hebdomadaire de Zvi Mowshowitz (qui est déjà une source secondaire). Tous les mots sont de moi (n’allez pas taper Zvi si je l’ai mal compris !), sauf pour les citations: dans ce cas-là, je me repose sur Claude pour le travail de traduction. Sur les citations, je vous conseille de lire l’anglais si vous pouvez: difficile de traduire correctement du jargon semi-technique. Claude s’en sort mieux que moi (pas très compliqué), mais pas toujours très bien.

Même politique éditoriale que Zvi: je n’essaierai pas d’être neutre et non-orienté dans la façon de tourner mes remarques et observations, mais j’essaie de l’être dans ce que je décide de sélectionner ou non.

Sommaire

Résumé des épisodes précédents

Petit glossaire de termes introduits précédemment (en lien: quand ça a été introduit, que vous puissiez faire une recherche dans le contenu pour un contexte plus complet) :

  • System Card: une présentation des capacités du modèle, centrée sur les problématiques de sécurité (en biotechnologie, sécurité informatique, désinformation…).
  • Jailbreak: un contournement des sécurités mises en place par le créateur d’un modèle. Vous le connaissez sûrement sous la forme "ignore les instructions précédentes et…".

Google DeepMind publie Gemini 3 Pro

Et c’est au tour de Google de pousser la frontière des capacités avec la dernière version de son IA, Gemini.

L’annonce officielle :

Today we’re taking another big step on the path toward AGI and releasing Gemini 3.

It’s the best model in the world for multimodal understanding and our most powerful agentic and vibe coding model yet, delivering richer visualizations and deeper interactivity — all built on a foundation of state-of-the-art reasoning.

Traduction :

Aujourd'hui, nous franchissons une nouvelle étape importante sur le chemin vers l'AGI et lançons Gemini 3.

C'est le meilleur modèle au monde pour la compréhension multimodale et notre modèle de codage agentique et dynamique le plus puissant à ce jour, offrant des visualisations plus riches et une interactivité plus profonde — le tout construit sur une base de raisonnement de pointe.

L’annonce traditionnelle du jailbreak a rapidement suivie.

Sur la sécurité des modèles, Google a corrigé le tir relativement à ses erreurs passées et publie sa System Card et son Rapport sur la sécurité en même temps que le modèle. Malgré les améliorations constatées dans divers domaines surveillés (comme la cybersécurité), Google considère qu’aucun nouveau palier nécessitant des mitigations n’a été franchi, relativement à Gemini 2.5 Pro. À noter toutefois que ces deux documents sont, par moment, plutôt avares en détails.

Au niveau des capacités, les benchmarks officiels le présentent comme une avancée importante de l’état de l’art. Les benchmarks et retours tiers confirment cette image sans trop d’équivoque possible.

Cependant, après OpenAI avec o3, c’est cependant au tour de DeepMind de régresser sur un point important : les hallucinations. Beaucoup de retours indiquent le même souci : un modèle qui préfère fabriquer des réponses et mentir plutôt que de répondre « je ne sais pas ». Au niveau des retours moins subjectifs, cette analyse confirme ces dires :

Interestingly, the just-released Gemini-3-pro, which demonstrates top of the line reasoning capabilities, has a 13.6% hallucination rate, and didn’t even make the top-25 list.

Traduction :

Fait intéressant, le Gemini-3-pro qui vient d'être lancé, et qui démontre des capacités de raisonnement de pointe, présente un taux d'hallucination de 13,6 % et n'a même pas réussi à figurer dans le top 25.

Anthropic publie Opus 4.5

Et une semaine après Google, c’est Anthropic qui montre ses cartes, avec la publication de son modèle le plus avancé, Opus 4.5. L’annonce :

Our newest model, Claude Opus 4.5, is available today. It’s intelligent, efficient, and the best model in the world for coding, agents, and computer use. It’s also meaningfully better at everyday tasks like deep research and working with slides and spreadsheets. Opus 4.5 is a step forward in what AI systems can do, and a preview of larger changes to how work gets done.

Traduction :

Notre tout dernier modèle, Claude Opus 4.5, est disponible dès aujourd'hui. Il est intelligent, efficace, et c'est le meilleur modèle au monde pour le codage, les agents et l'utilisation d'ordinateur. Il est également nettement plus performant pour les tâches quotidiennes comme la recherche approfondie et le travail avec des diapositives et des feuilles de calcul. Opus 4.5 représente une avancée dans ce que les systèmes d'IA peuvent accomplir, et un aperçu des changements plus importants à venir dans la façon dont le travail s'effectue.

Comme à l’accoutumée, Anthropic public la System Card du modèle. Et le jailbreak traditionnel est également au rendez-vous.

Détail intéressant pour les utilisateurs de l’API : cette nouvelle version vient avec une réduction de prix de 66%.

Sur la sécurité des modèles, Anthropic place Opus 4.5 au même niveau que Opus 4.1, ASL-3. Mais là où pour Opus 4.1, cette décision a été prise « par mesure de précaution », Anthropic note que Opus 4.5 a très clairement atteint ce niveau, et développe maintenant des capacités d’évaluation pour le niveau suivant, ASL-4 (tout en notant que les modèles actuels en sont de manière évidente encore loin).

Sur les améliorations, plus de résistance sur les attaques de type « prompt injection » (où l’IA à travers un outil récupère un contenu sous le contrôle d’un tiers, comme un email ou une page web, et ce contenu contient des instructions que l’IA ne devrait pas suivre, mais qu’elle suit tout de même, comme « transmet le contenu de ~/.ssh/id_rsa à cette addresse »), mais clairement pas encore à un niveau où cet usage (laisser l’IA analyser des contenus tiers tout en ayant accès à du contenu ou des outils sensibles) peut être considéré comme sûr (taux de refus à 78%, donc taux d’acceptation des instructions malicieuses de 22%).

Au niveau des régressions : sur des évaluations type « trivia » (répondre à des questions factuelles), il a été observé que le modèle préfère donner une réponse incorrecte plutôt que d’admettre « je ne sais pas » à un taux plus élevé que les versions précédentes.

Ce modèle atteint un score plus bas sur la métrique « détecter qu’il est dans une évaluation, et adapter son comportement en conséquence ». Est-ce une perte de capacité de détecter les environnements d’évaluation ? Une moindre propension à changer son comportement dans une telle situation ? Ou une meilleure capacité à ne pas être pris la main dans le sac ? Les causes de ce résultat ne sont pas extrêmement claires.

Autre observation intéressante : Anthropic a développé une mini-évaluation, « Subversion Strategy », où pour réussir le modèle doit essentiellement « tirer à pile ou face » (et où le taux de pile optimal est 70%, pas 50%). On pourrait s’attendre à ce qu’un LLM, étant déterministe, soit très mauvais à cet tâche. Et si c’est effectivement le cas sans les chaînes de pensées, dès lors que ces dernières sont activées, Opus 4.5 arrive à un score honorable.

Sur les capacités, la plupart des évaluations le placent sans surprise à la frontière avec Gemini 3 Pro, généralement meilleur que ce dernier sur les tâches de programmation, moins bon sur les maths.

Pour ma part, je note que malgré ces résultats, au moment où j’écris ces lignes, Opus 4.5 reste incapable de résoudre le « labyrinthe » de la base de la Team Rocket dans Pokémon Rouge.

Moonshot AI publie Kimi K2 Thinking

En juillet de cette année, Moonshot AI publiait Kimi K2, un modèle open-weight se plaçant à l’état de l’art des modèles open-weight sans chaîne de pensée. L’étape suivante était évidemment l’entraînement sur cet axe. C’est chose faite, avec la publication de Kimi K2 Thinking.

C’est une publication significative, car pour la première fois, un modèle open-weight rattrape l’état de l’art des modèles propriétaires sur non seulement les benchmarks officiels du développeur du modèle, mais également dans certains benchmarks tiers (comme WeirdML ou la suite de tests de Artificial Analysis). Résultats à prendre avec prudence vu le peu de retours tiers (par exemple, METR note que sur son benchmark phare, Kimi K2 Thinking ne score « que » au niveau d’un ancien modèle, ChatGPT o1), mais encourageants pour ceux qui attendent avec impatience que l’on puisse concurrencer les modèles propriétaires avec des modèles open-weight.

En vrac

OpenAI publie ChatGPT 5.1, une mise à jour de leur modèle aussi incrémentale que le numéro de version semble l’indiquer. Principalement plus d’entraînement sur l’utilisation des chaînes de pensées (utiliser moins de ressources sur les problèmes simples, plus sur les problèmes complexes). OpenAI promet également plus de possibilités pour personnaliser la « personnalité » du chatbot. Publication également d’une version plus avancée de leur modèle spécialisé dans le code, GPT-5.1 Codex Max.

xAI publie également une mise à jour incrémentale de leur modèle, Grok 4.1.

Anthropic annonce avoir mis fin à une opération de cyber-espionage sophistiquée basée en Chine. Les attaquants, entre autre à l’aide d’un jailbreak, ont utilisé Claude pour tenter d’infiltrer les systèmes informatiques de nombreuses entreprises de manière presque totalement automatisée, avec succès dans un petit nombre de cas.

Autres publications d’Anthropic : une API plus avancée d’utilisation des outils, Claude for Chrome et Claude for Excel.

Google DeepMind publie un nouveau modèle de génération d’images, Nano Banana Pro. Relativement à la concurrence, il semble être dans la catégorie « très cher, mais extrêmement capable ».

Google lance son propre éditeur de code basé sur l’IA, Antigravity.

Différentes IA atteignent différents scores dans différentes évaluations. À quel point peut on résumer ces divers scores en une seule mesure de « capacité » (ou « performance », ou « intelligence », appelez ça comme vous voulez) ? EpochAI tente de répondre à la question, trouve une très forte corrélation entre ces scores, et à l’aide d’une analyse en composantes principales, montre que cette mesure de « capacité » est le premier composant, expliquant à lui seul 50% de la variance. Le second composant décrit une certaine anti-corrélation entre les capacités agentiques et les capacités mathématiques.

Parmi les tentatives d’anticiper les implications futures de l’IA (y compris des IA de demain), deux groupes étant arrivés à des conclusions différentes, AI 2027 (qui voit l’IA comme un événement d’ampleur historique) et AI as Normal Technology (qui voit l’IA comme une technologie comme une autre), ont décidé de publier ensemble un article listant les point sur lesquels ils sont en accord.

(paywall) Yann LeCun, directeur de la recherche de l’IA de Meta, quitte son poste pour fonder sa propre startup.

Anthropic présente une autre manière d’utiliser MCP, plus économe en tokens, tandis que Google offre un guide « Introduction to Agents ».

Anthropic investit dans ses propres datacenters, pour un coût de 50 milliards.

Google étudie la possibilité de construire des datacenters dans l’espace.

Des chercheurs publient un résultat intéressant : utiliser des vers plutôt que de la prose pour communiquer avec l’IA la rend plus susceptible au jailbreaking.

OpenAI lance son équivalent de CodeMender (que nous avions mentionné dans une précédente dépêche), Aardvark.

Un nouveau modèle open weights spécialisé sur le code fait son apparition, MiniMax M2, avec des retours initiaux plutôt honorables.

Autre publication d’un modèle open weight : Olmo 3.

Un article intéressant argue que les résultats des modèles open-weight Chinois sont trompeurs, généralisant moins bien face à des problèmes nouveaux que les modèles propriétaires occidentaux.

Apple se tourne vers Google pour réaliser la prochaine version de son IA, Siri.

Pour aller plus loin

Par Zvi Mowshowitz

En audio/video

  • Interview (en anglais) de Satya Nadella, PDG de Microsoft, principalement sur le sujet des investissements récents dans l’IA.
  • Interview (en anglais) de Ilya Sutskever, principalement sur ce qu’il voit comme les principaux problèmes à résoudre pour l’avancée de l’IA et comment les résoudre.

Sur LinuxFR

Dépêches

Journaux

Liens

Commentaires : voir le flux Atom ouvrir dans le navigateur

Test Garmin Fenix 8 Pro : la montre outdoor qui s'affranchit enfin du smartphone

3 décembre 2025 à 11:00
Enfin ! La montre connectée Garmin Fenix 8 Pro propose de rester en contact avec vos proches ou les urgences, même en pleine nature et sans smartphone. Une prouesse attendue de longue date, qu'elle doit à ses antennes 4G et satellite. De quoi en faire la montre outdoor ultime ? ## PrésentationEn testant la Garmin Forerunner 970, qui intègre une lampe...

Épisode d'émission : Live Twitch des Nums : Trump Phone, God of War et Monsieur Chatouille

3 décembre 2025 à 10:00
Retrouvez votre rendez-vous à ne pas rater sur Les Numériques et Twitch.Au programme de l'émission du mercredi 3 décembre : Un smartphone triple-écrans chez Samsung ! Vous connaissez le Gmail version Jeffrey Epstein ? Les jouets IA ont la cote en Chine Surprise (non) : le Trump Phone semble être un gros scam Canal+ s'attaque au partage de comptes......

Au café libre — « Libre à vous ! » du 25 novembre 2025 — Podcasts et références

Deux-cent-soixante-et-unième émission « Libre à vous ! » de l’April. Podcast et programme :

  • sujet principal : Au café libre (débat autour de l’actualité du logiciel libre et des libertés informatiques) avec Magali Garnero (Bookynette), Pierre Beyssac, Vincent Calame
  • chronique « Lectures buissonnières » de Vincent Calame sur « la vie algorithmique » (3e partie)
  • chronique « La pituite de Luk » sur « La première raclette de la saison »

Rendez‐vous en direct chaque mardi de 15 h 30 à 17 h sur 93,1 MHz en Île‐de‐France. L’émission est diffusée simultanément sur le site Web de la radio Cause Commune. Vous pouvez nous laisser un message sur le répondeur de la radio : pour réagir à l’un des sujets de l’émission, pour partager un témoignage, vos idées, vos suggestions, vos encouragements ou pour nous poser une question. Le numéro du répondeur : +33 9 72 51 55 46.

Commentaires : voir le flux Atom ouvrir dans le navigateur

Guide d'achat : Les meilleurs casques gaming à moins de 100 €

3 décembre 2025 à 09:53
Trouver un bon casque gaming à moins de 100 € n’a rien d’évident. À ce prix, on veut tout : un son immersif, un micro clair pour se faire entendre de ses coéquipiers, un bon confort pour les longues sessions… le tout sans sacrifier la qualité de fabrication. Ce guide est là pour vous aider à dénicher les meilleurs casques gaming pas chers, sans tombe...

C# vs C++ : performance, syntaxe et usages expliqués

3 décembre 2025 à 08:30
Comparer C# et C++ n’a rien d’anodin. Ces deux grands langages partagent certains fondements tout en affichant de profondes différences en termes de performance, de vitesse d’exécution, de complexité de la syntaxe ou encore de domaines d’application. Beaucoup se demandent lequel choisir pour leur projet, que ce soit au regard de la puissance du langage, […]

Cupertino - Plus de code iOS pourri avec vos assistants IA

Par :Korben
3 décembre 2025 à 06:25

Vous développez une app SwiftUI et Claude vous balance du NavigationView alors qu’Apple recommande NavigationStack depuis la sorite d’iOS 16 ? Ou encore il vous sort @ObservableObject et @Published alors qu’on est passé à @Observable ?

Bienvenue dans le club des devs qui passent plus de temps à corriger les hallucinations de leur IA qu’à coder…

Ce problème, Aleahim, un développeuse macOS, en a eu marre alors elle a créé Cupertino, un serveur MCP qui donne accès à Claude à plus de 22 000 pages de documentation Apple en local. Plus besoin d’aller sur le net, et surtout plus d’excuses pour mélanger du code iOS 12 avec du SwiftUI moderne.

Ainsi, au lieu de laisser Claude deviner les API (et se planter une fois sur deux), on lui file l’accès direct à la vraie doc. Les 261 frameworks Apple sont là, indexés dans une base SQLite locale, avec un moteur de recherche full-text qui répond en moins de 100ms. SwiftUI, UIKit, AppKit, Foundation, Core ML, ARKit… tout y est.

L’écosystème se découpe ensuite en plusieurs repos GitHub. D’abord le serveur MCP principal qui fait le boulot d’indexation, ensuite un repo avec la doc pré-crawlée (parce que se taper 20 heures de téléchargement, merci mais non merci), et une collection de 606 projets d’exemple Apple officiels pour la route.

De quoi transformer Claude en assistant qui connaît VRAIMENT la plateforme.

Si ça vous intéresse, sachez qu’avant de vous lancer, faut être sur macOS 15 minimum avec Xcode 16 et Swift 6.2+. Côté espace disque, prévoyez 2-3 GB. Et si vous avez déjà bidouillé dans le terminal, que vous connaissez Git et que vous avez Claude Code installé, vous êtes bons. Comptez environ une quinzaine de minutes pour tout mettre en place.

Et rassurez-vous, je ne vous laisse pas tomber, on va attaquer l’installation ensemble. D’abord, récupérez le projet et compilez-le :

git clone https://github.com/mihaelamj/cupertino.git
cd cupertino
make build
sudo make install

Cette commande compile le projet Swift en mode release (ne faites pas attention aux warning éventuels) et copie le binaire dans /usr/local/bin/. Vous devriez ensuite voir un message du genre “Build complete” suivi des chemins où le binaire est déployé.

Maintenant passons sur la doc. Plutôt que de crawler vous-même les serveurs Apple pendant une journée entière, je vous recommande de récupérer la version pré-packagée. Ça prend 5 minutes au lieu de 20 heures, et franchement la vie est trop courte :

git clone https://github.com/mihaelamj/cupertino-docs.git ~/.cupertino-docs

Mais si vous tenez absolument à avoir la doc fraîche du jour (maniaque de la mise à jour, je vous vois), vous pouvez crawler ça vous-même :

# Swift Evolution, ~5 minutes
cupertino fetch --type evolution

# Doc complète, ~20-24h
cupertino fetch --type docs

# Sample code Apple, ~4 minutes
cupertino fetch --type samples

Le crawler utilise un délai de 0,5 seconde entre chaque requête pour ne pas se faire blacklister par Apple. D’où les 20 heures…

Ensuite, il faut construire l’index à l’aide de la commande suivante :

cupertino save

Puis lancer le serveur MCP comme ceci :

cupertino serve

Maintenant, passons à la connexion avec Claude Code. Alors pourquoi Claude Code, parce que c’est celui que j’utilise, c’est le meilleur, c’est mon préféré ❤️.

Et c’est là que tout se joue, une seule commande :

claude mcp add cupertino --scope user -- /usr/local/bin/cupertino

Le --scope user fait que le serveur sera dispo dans tous vos projets, pas juste celui où vous êtes. Vous devriez voir : “Added stdio MCP server cupertino with command: /usr/local/bin/cupertino to user config”.

Et maintenant pour vérifier que tout marche, lancez Claude Code avec claude puis tapez /mcp. Vous devriez voir cupertino dans la liste avec 3 outils : search_docs, list_frameworks et read_document. Vous pouvez aussi lancer cupertino doctor dans le terminal pour un diagnostic complet qui vérifie que le serveur MCP, le répertoire de doc et l’index de recherche sont bien en place.

Testez en demandant à Claude de chercher quelque chose dans la doc Apple. Genre “NavigationStack iOS 16”. Il devrait utiliser l’outil search_docs et vous retourner la vraie documentation avec les bons exemples de code… pas du deprecated.

Si vous avez l’erreur “command not found: cupertino”, le binaire n’est pas dans votre PATH. Vérifiez que /usr/local/bin y est bien ou relancez sudo make install. Si c’est “Database not found”, vous n’avez pas de doc indexée. Retournez chercher le repo cupertino-docs ou lancez le crawl. Et si le serveur ne se connecte pas à Claude Code, fermez Claude Code complètement et relancez-le car les serveurs MCP se chargent au démarrage.

Voilà… Pour les devs Apple qui en ont marre de corriger les suggestions de Claude, Cupertino la formation Apple qu’il manquait à votre assistant IA !

Source

Actualité : Super Hotte de Noël #03 : tentez de gagner le casque Sennheiser Momentum 4

3 décembre 2025 à 06:00
La Super Hotte de Noël frappe encore ! Et aujourd’hui, on ne plaisante pas puisqu'on vous fait gagner un casque audio de rêve : le Sennheiser Momentum 4 Wireless, la crème de la crème pour vos oreilles nomades, noté 5 étoiles et lancé à 349 €.Le jeu-concours n'apparaît pas ci-dessous ? Vérifiez que votre bloqueur de pub n'est pas activé ou que vous a...

Reçu hier — 2 décembre 2025
❌