Vue lecture

Face aux saisies, une société ne peut invoquer les droits RGPD de ses salariés

Une société ne peut faire valoir une atteinte à la vie privée de ses salariés pour contester une saisie effectuée par l’Autorité de la concurrence.

La chambre criminelle de la Cour de cassation l’énonce dans un arrêt du 13 janvier 2026, réitérant une décision de 2024.

Le requérant avait fait l’objet d’une visite et saisie en novembre 2022, comme d’autres entreprises. Il s’agissait de rechercher des preuves de pratiques anticoncurrentielles dans le secteur de l’approvisionnement laitier.

Le pourvoi en appel avait été infructueux. La Cour avait exclu toute application du RGPD à la saisie de données personnelles dans le cadre de telles opérations. Plus précisément, dès lors que le juge des libertés et de la détention a donné son aval à la démarche, qu’il en contrôle la réalisation et qu’elle est susceptible d’un recours en cassation. Ces conclusions se fondaient cependant sur une jurisprudence de 2011, ce qui ouvrait une brèche potentielle.

L’argument a en tout cas été invoqué en cassation : cette jurisprudence ne pouvait être appliquée au RGPD, puisqu’elle concernait la loi telle qu’elle était avant la transposition du règlement (intervenue en 2018).

En se référant à son arrêt de 2024, la Cour de cassation a de fait rejeté l’argument. Et elle a donc ajouté que seul le salarié peut contester une saisie portant atteint à la vie privée ou aux données personnelles. Il est effectivement le seul titulaire des droits que le RGPD garantit en la matière.

À consulter en complément :

Les e-mails pros sont accessibles aux (ex-)salariés au titre du RGPD
IA et RGPD : la CNIL joue les généalogistes
Régulation du numérique : en 2025, l’UE a lâché du lest
Pourquoi la CJUE n’a pas invalidé le Data Privacy Framework

Illustration © alphaspirit – Shutterstock

The post Face aux saisies, une société ne peut invoquer les droits RGPD de ses salariés appeared first on Silicon.fr.

  •  

Comment l’IA va pousser les datacenters en orbite

Et si la prochaine génération de datacenters ne se construisait pas sur Terre, mais en orbite ? L’idée peut sembler relever de la science-fiction mais elle mobilise aujourd’hui des géants de la technologie et de l’espace.

Avec l’explosion des besoins en puissance de calcul pour l’intelligence artificielle et les tensions croissantes sur les ressources énergétiques terrestres, le concept de datacenters spatiaux gagne en crédibilité.

L’annonce d’une possible fusion entre SpaceX d’Elon Musk et xAI illustre l’intérêt grandissant pour cette approche. Si les promesses sont alléchantes – énergie solaire illimitée, refroidissement naturel, réduction de l’empreinte carbone -, les défis sont tout aussi considérables : coûts de lancement, fiabilité matérielle, maintenance impossible.

De quoi parle-t-on exactement ?

Les datacenters IA spatiaux sont des infrastructures de calcul déployées en orbite basse ou plus haute, combinant serveurs, accélérateurs IA (GPU, TPU, ASIC) et vastes surfaces solaires. Ils reposeraient sur des centaines de satellites interconnectés pour répondre à ces besoins massifs de compute pour l’entraînement et l’inférence des modèles IA très gourmands en ressources.

Au-delà de l’atmosphère, les satellites bénéficieraient d’une exposition solaire ininterrompue et pourraient dissiper la chaleur directement dans le vide spatial, supprimant ainsi deux des plus grands défis des datacenters terrestres.

Plusieurs programmes structurent aujourd’hui ce concept encore émergent, témoignant d’un réel engouement industriel.

> Google et le Project Suncatcher

Google développe le Project Suncatcher, un réseau ambitieux d’environ 80 satellites solaires positionnés à 400 km d’altitude, équipés de TPU (unités de traitement tensoriel) pour exécuter des charges IA. Ces satellites seraient interconnectés par des liaisons optiques et renverraient les résultats vers la Terre via des liens laser à haut débit. Deux premiers prototypes sont attendus en 2027, en partenariat avec Planet Labs.

> L’Initiative européenne ASCEND

En Europe, le projet ASCEND (Advanced Space Cloud for European Net zero emission and Data sovereignty), piloté par Thales Alenia Space et financée par la Commission européenne, conclut à la faisabilité de datacenters en orbite pour contribuer à l’objectif de neutralité carbone et à la souveraineté numérique européenne. Elle s’appuie sur un consortium mêlant experts environnementaux (dont Carbone 4), acteurs du cloud (Orange Business, HPE, CloudFerro), lanceurs (ArianeGroup) et agences spatiales.

Thales Alenia Space expérimente également le Space Edge Computing à plus petite échelle, en déployant un calculateur durci embarquant Microsoft Azure sur l’ISS pour traiter en orbite des flux d’observation de la Terre avec des applications IA comme DeeperVision. Cette approche préfigure des architectures hybrides où une partie du traitement IA est effectuée en orbite, le reste dans les clouds terrestres.

> Starcloud et Nvidia : objectif « hypercluster »

Starcloud, soutenu par Nvidia et Google, a franchi une étape importante le mois dernier en lançant le satellite Starcloud-1 via une fusée Falcon 9.

Équipé d’une puce Nvidia H100 – la plus puissante jamais envoyée en orbite – il entraîne et exécute le modèle Gemma de Google en tant que « proof of concept ». L’entreprise promeut des datacenters orbitaux alimentés 24/7 par l’énergie solaire, avec la promesse de réduire d’un facteur 10 les émissions de CO2 par rapport à un datacenter terrestre sur l’ensemble du cycle de vie. Elle vise à terme un « hypercluster » modulaire fournissant environ cinq gigawatts de puissance de calcul.

L’Alliance nippo-américaine contre la Chine

Au Japon, Space Compass et Microsoft explorent un réseau de satellites-relais optiques intégrant des capacités de edge computing pour rapprocher encore les fonctions de calcul IA des capteurs orbitaux et du cloud Azure.

La Chine n’est pas en reste, annonçant son intention de créer un « nuage spatial » au cours des cinq prochaines années. La China Aerospace Science and Technology Corporation s’est engagée à construire une infrastructure d’intelligence numérique spatiale de classe gigawatt, conformément à un plan de développement quinquennal.

Les défis technologiques et architecturaux

La mise en orbite d’un datacenter IA pose des défis technologiques considérables que les ingénieurs doivent surmonter.

> Lancement et assemblage

Les modules doivent être conçus de manière modulaire et suffisamment robustes pour résister aux violentes vibrations du décollage, puis être assemblés en orbite. Une tâche que des programmes comme EROSS IOD (European Robotic Orbital Support Services) entendent automatiser via la robotique spatiale européenne dès 2026.

> Gestion thermique complexe

Si le vide spatial évite la convection, il complique paradoxalement l’évacuation de la chaleur. Celle-ci doit passer par des radiateurs et une ingénierie thermique fine pour gérer des charges IA très denses. Contrairement aux idées reçues, le refroidissement dans l’espace n’est pas automatique et nécessite des systèmes sophistiqués.

> Fiabilité matérielle extrême

Les serveurs et accélérateurs IA doivent être durcis contre les radiations cosmiques et les cycles thermiques extrêmes, tout en restant compétitifs en performance par rapport aux générations terrestres renouvelées tous les 3 à 5 ans. C’est un défi majeur dans un secteur où l’obsolescence est rapide.

> Connectivité Haute Performance

Les datacenters spatiaux reposent sur des liens optiques haut débit, à la fois inter-satellites et vers le sol, afin de limiter la latence et de maximiser le débit pour l’entraînement et l’inférence distribués. Les liaisons laser deviennent indispensables pour gérer les volumes de données colossaux.

Les défis économiques et temporels

Malgré l’enthousiasme, les experts du secteur spatial restent prudents. Plusieurs obstacles majeurs se dressent sur la route de cette vision futuriste :

  • Les débris spatiaux représentent une menace constante pour tout équipement orbital
  • Les coûts de lancement demeurent substantiels malgré les progrès récents
  • La maintenance est extrêmement limitée une fois les satellites en orbite
  • Le rythme de renouvellement technologique pose question dans un environnement où l’accès physique est impossible

Selon les analystes de Deutsche Bank, les premiers déploiements de petits centres de données orbitaux sont attendus entre 2027 et 2028. Ces missions pionnières serviront à valider la technologie et évaluer la rentabilité. Les constellations plus importantes, comprenant potentiellement des centaines voire des milliers d’unités, ne verraient le jour que dans les années 2030, et seulement si ces premières expériences s’avèrent concluantes.

Le modèle économique repose sur trois piliers : la baisse rapide des coûts de lancement, la maturité de la robotique orbitale et la densification des puces IA. Si ces hypothèses se vérifient, le calcul IA en orbite pourrait devenir, à moyen terme, compétitif voire plus rentable que l’extension infinie de datacenters au sol dans des zones déjà contraintes en énergie et en eau.

Enjeux énergétiques et environnementaux : un bilan contrasté

Les datacenters IA tirent aujourd’hui la consommation électrique mondiale à la hausse, au point que certaines projections redoutent une saturation des réseaux et une tension croissante sur le foncier, l’eau et les énergies renouvelables. En orbite, la combinaison d’un flux solaire permanent (hors éclipses) et de panneaux plus efficaces qu’au sol ouvre un nouveau gradient d’optimisation énergétique.

Selon les porteurs du projet ASCEND, malgré l’empreinte carbone initiale des lancements, un datacenter spatial pourrait afficher, à horizon de vie complet, un bilan carbone meilleur qu’un équivalent terrestre si certains seuils de puissance et de durée de vie sont atteints. Des acteurs comme Starcloud avancent des chiffres impressionnants : jusqu’à 90% de réduction des coûts d’électricité, et un facteur 10 sur les émissions de CO2 sur la durée de vie, en supposant des lancements optimisés et une maintenance robotisée.

Cependant, la réalité est plus nuancée. Chaque lancement de fusée injecte des centaines de tonnes de CO2 et d’autres composés dans l’atmosphère, ce qui déplace le problème vers le secteur spatial et pose la question du rythme soutenable de mise en orbite de telles infrastructures. À cela s’ajoutent des enjeux préoccupants :

  • La pollution lumineuse causée par les constellations de satellites, déjà critiquée par les astronomes
  • La congestion croissante des orbites basses, source de risques de collision
  • L’impact cumulatif de milliers de lancements sur l’atmosphère

Le débat environnemental reste donc ouvert : les bénéfices opérationnels compensent-ils vraiment l’impact des phases de lancement et de déploiement ?

L’ambition de Musk et de Bezos

Pour Elon Musk, le timing semble idéal. SpaceX est le constructeur de fusées le plus performant de l’histoire et a déjà mis en orbite avec succès des milliers de satellites dans le cadre de son service internet Starlink. Cette infrastructure existante pourrait servir de fondation pour des satellites compatibles avec l’IA ou faciliter la mise en place de capacités informatiques embarquées.

Lors du Forum économique mondial de Davos au début du mois, il n’a pas caché son optimisme : « Il est évident qu’il faut construire des centres de données à énergie solaire dans l’espace… l’endroit le moins coûteux pour déployer l’IA sera l’espace, et ce sera vrai d’ici deux ans, trois au plus tard. »

SpaceX envisage d’ailleurs une introduction en bourse cette année, qui pourrait valoriser l’entreprise de fusées et de satellites à plus de 1 000 milliards $. Une partie des fonds levés servirait à financer le développement de satellites de centres de données dédiés à l’intelligence artificielle.

De leur côté, Blue Origin et Jeff Bezos travaillent sur leur propre technologie de datacenters spatiaux, en s’appuyant sur l’expertise d’Amazon. Le fondateur prévoit que les « centres de données géants de plusieurs gigawatts » en orbite pourraient, d’ici 10 à 20 ans, être plus abordables que leurs homologues terrestres.

Illustration : image générée par l’IA

The post Comment l’IA va pousser les datacenters en orbite appeared first on Silicon.fr.

  •  

DeepSeek autorisé à acheter les puces NVIDIA H200 : la Chine accélère dans la course à l’IA

Profitant d’un assouplissement des conditions d’imporations américaines, la Chine accélère le pas. Selon plusieurs informations concordantes, Pékin a donné son feu vert au géant local DeepSeek pour acquérir les puissantes puces H200 de NVIDIA, un feu vert qui s’étend également à ByteDance, Alibaba et Tencent. Au total, jusqu’à …

Lire la suite

Aimez KultureGeek sur Facebook, et suivez-nous sur Twitter

N'oubliez pas de télécharger notre Application gratuite iAddict pour iPhone et iPad (lien App Store)


L’article DeepSeek autorisé à acheter les puces NVIDIA H200 : la Chine accélère dans la course à l’IA est apparu en premier sur KultureGeek.

  •  

Perplexity se laisse séduire par Microsoft Foundry…sans lâcher AWS

Perplexity s’offre les services du cloud Azure de Microsoft pour déployer des modèles d’IA via le service Foundry, incluant notamment ceux développés par OpenAI, Anthropic et xAI, selon des sources citées par Bloomberg.

Son montant :  750 millions $ sur trois ans.

« Nous sommes ravis de nous associer à Microsoft pour accéder aux modèles de pointe de X, OpenAI et Anthropic », a déclaré Perplexity en précisant que ce nouveau contrat ne s’accompagne d’aucun transfert de dépenses depuis Amazon Web Services, son principal fournisseur cloud historique.

« AWS reste le fournisseur d’infrastructure cloud privilégié de Perplexity, et nous sommes impatients d’annoncer des extensions de ce partenariat dans les semaines à venir », a ajouté le porte-parole.

Cette diversification illustre une tendance forte de l’approche  « multicloud » qui s’est accélérée avec l’avènement de l’IA.

Des relations complexes avec Amazon

Perplexity avait jusqu’ici construit l’essentiel de son activité sur AWS, utilisant le service Bedrock  pour accéder aux modèles Anthropic qui alimentent son moteur de recherche.

Aravind Srinivas, le directeur général de Perplexity, est un habitué des conférences AWS qui  présentait volontiers Perplexity comme l’un de ses clients IA de référence.

Les relations se sont toutefois tendues ces derniers mois. En novembre, Amazon a poursuivi Perplexity en justice pour tenter d’empêcher la start-up de permettre aux consommateurs d’utiliser ses outils d’IA pour faire leurs achats sur la marketplace du géant du commerce en ligne. Perplexity a riposté en qualifiant Amazon d’intimidateur, dénonçant des actions constituant « une menace pour le choix des utilisateurs ». Srinivas avait alors révélé avoir pris des « centaines de millions » d’engagements auprès d’AWS.

Microsoft muscle son offre IA

Pour Microsoft, cet accord renforce sa stratégie visant à positionner Azure comme la plateforme de référence pour développer des applications d’IA et déployer des modèles de multiples fournisseurs. Le groupe propose depuis longtemps les modèles de son partenaire OpenAI et a conclu un accord similaire avec Anthropic en novembre.

« Nos clients s’attendent à utiliser plusieurs modèles dans le cadre de n’importe quelle charge de travail », a déclaré le PDG Satya Nadella lors d’une conférence téléphonique sur les résultats cette semaine. « Et nous offrons la plus large sélection de modèles de tous les hyperscalers. »

Plus de 1 500 clients Microsoft Foundry ont déjà utilisé à la fois les modèles OpenAI et Anthropic, a précisé le PDG Satya Nadella lors d’une conférence téléphonique sur les résultats financcette semaine indiquant que le nombre de clients dépensant plus d’un million de dollars par trimestre sur Foundry a progressé de près de 80% au cours du trimestre clos en décembre.

Perplexity compte parmi les start-ups d’IA les mieux valorisées, mais fait face à une rude concurrence de Google et OpenAI dans son ambition de révolutionner la recherche d’informations en ligne. Contrairement à OpenAI et Anthropic, qui ont récemment multiplié les accords d’infrastructure, elle n’a pas levé autant de capitaux que ses concurrents.

« `

The post Perplexity se laisse séduire par Microsoft Foundry…sans lâcher AWS appeared first on Silicon.fr.

  •  

Helix 02 - Le robot qui vide votre lave-vaisselle pour de vrai

Vous vous souvenez peut-être de Figure 01 qui nous avait tous bluffés l'année dernière en se faisant couler un petit café (qui a dit "dans sa couche ??) ?

Hé bien, la startup Figure AI ne chôme pas (contrairement à nous le vendredi matin) puisqu'elle vient de dévoiler son Helix 02, la nouvelle version de son cerveau numérique.

Et là, accrochez-vous bien parce qu'on passe un cap ! En effet, ce robot est désormais capable de vider un lave-vaisselle de manière totalement autonome.

Alors je sais ce que vous vous dites : "Super, un truc à 150 000 balles pour faire ce que mon ado refuse de faire gratuitement". Sauf que la prouesse technique derrière est assez dingue. Jusqu'à présent, les robots humanoïdes, notamment ceux de Boston Dynamics (le fameux Atlas), fonctionnaient beaucoup sur de la "théorie du contrôle". En gros, des maths complexes pour garder l'équilibre, et du code impératif pour dire "lève le bras de 30 degrés". C'est hyper précis, mais c'est lourd à coder et ça manque de souplesse.

Là, Figure a tout misé sur une approche pixels-to-action de type "End-to-End". C'est ce qu'ils appellent le System 0.

En gros, ils ont viré un peu moins de 110 000 lignes de code C++ (le langage bien verbeux qu'on adore détester) pour les remplacer par un modèle d'IA unifié. Le robot "regarde" avec ses caméras et le réseau de neurones décide directement des mouvements. Et c'est comme ça que d'un coup, le robot gère tout : l'équilibre, la manipulation des objets glissants, et même la correction de ses propres erreurs en temps réel.

C'est un peu comme si votre Roomba avait soudainement appris à faire du parkour tout en tenant un plateau de verres en cristal.

Bon, vous vous en doutez, le marketing ne nous dévoile pas tout car il y a un petit piège derrière cette innovation. En fait cette approche "tout IA" a aussi des limites car si le modèle hallucine un mouvement, le robot peut très bien décider de lancer votre assiette en porcelaine de Limoges à travers la pièce. C'est donc pour ça qu'ils gardent quand même des garde-fous (System 1 et System 2) pour la planification à long terme. Mais c'est pas encore demain que je laisserai ce machin seul avec mon chat, sauf si je veux le transformer en frisbee ^^.

D'ailleurs, si vous suivez un peu l'actu des robots humanoïdes , vous savez que la concurrence est rude notamment avec l' Optimus de Tesla . Mais perso, je trouve que Figure a carrément une longueur d'avance sur la fluidité "humaine", là où Optimus fait encore un peu "mec bourré qui essaie de marcher droit". J'adorerai avoir un kit de dev pour jouer avec ce truc, mais vu le prix, je vais plutôt me rabattre sur Raspberry Pi... on fait avec ce qu'on a !

Et pour nous les bidouilleurs dans tout ça ?

Hé bien si vous n'avez pas 150 000 $ sous le matelas, sachez qu'il existe des projets open-source comme le ToddlerBot (un petit robot à environ 250$ imprimable en 3D) qui permettent de s'initier à la robotique bipède sans vendre un rein. C'est moins classe que Helix, mais au moins, si ça tombe, ça casse juste du PLA. Un coup de colle et c'est reparti !

Bref, on n'est pas encore au stade où il viendra vous border le soir, mais pour ce qui est des corvées ménagères, ça sent bon la fin de l'esclavage humain (pour le remplacer par celui des machines, mais chut, faut pas leur dire).

Amusez-vous bien !

Source

  •  

L'IA est un risque existentiel: l’alerte de Dario Amodei

> L’intelligence artificielle pourrait nous détruire totalement.
> Celui qui l’affirme est à l’origine de Claude, l’une des IA les plus utilisées aujourd’hui.
> Le patron d’Anthropic en est convaincu : sans un sursaut, l’humanité peut s’effondrer.

C'est (très) long, je suis en train de l'imprimer pour le lire au calme.

Juste une citation piochée au hasard, dans les dernières pages :
> C’est là le piège : l’IA est si puissante et si lucrative qu’il est très difficile pour la civilisation humaine de lui imposer la moindre restriction.
(Permalink)
  •  

L'IA est un risque existentiel: l’alerte de Dario Amodei

> L’intelligence artificielle pourrait nous détruire totalement.
> Celui qui l’affirme est à l’origine de Claude, l’une des IA les plus utilisées aujourd’hui.
> Le patron d’Anthropic en est convaincu : sans un sursaut, l’humanité peut s’effondrer.

C'est (très) long, je suis en train de l'imprimer pour le lire au calme.

Juste une citation piochée au hasard, dans les dernières pages :
> C’est là le piège : l’IA est si puissante et si lucrative qu’il est très difficile pour la civilisation humaine de lui imposer la moindre restriction.
(Permalink)
  •  

NVIDIA négociait avec Anna's Archive pour entraîner ses IA... et les emails ont fuité

Bon, celle-là elle est gratinée. NVIDIA, le géant des GPU, a directement contacté Anna's Archive pour accéder à environ 500 To de livres piratés. Contacté, négocié, payé. Comme ça, tranquillou.

C'est une class action (dossier n°1:26-cv-00002 au tribunal fédéral de New York, pour ceux qui veulent aller checker) qui a fait fuiter ces fameux emails internes. En gros, un membre de l'équipe "data strategy" de NVIDIA a négocié un accès haute vitesse aux collections piratées de la bibliothèque. Et le plus beau dans l'histoire c'est qu'Anna's Archive les a PRÉVENUS que les données étaient illégales. Genre, texto : "Vous avez une autorisation interne pour ça ?"

La réponse est arrivée en moins d'une semaine. Feu vert. Sauf que bon, quand on lit ça avec du recul, c'est quand même sacrément culotté.

Le contexte, c'était surtout la pression de livrer pour la GTC 2023 (la Developer Conference de NVIDIA). Fallait nourrir les modèles d'IA coûte que coûte, et le dataset Books3 (196 000 bouquins issus de Bibliotik), plus LibGen, Sci-Hub, Z-Library... ça faisait un buffet de 500 To et de leur côté Anna's Archive facturait des dizaines de milliers de dollars pour l'accès rapide.

Sérieux, j'aurais aimé voir la tête du service juridique de NVIDIA en lisant cet email...

En parallèle, Anna's Archive se prend un procès complètement délirant puisque Spotify, Universal Music, Warner et Sony réclament 13 000 milliards de dollars (13 TRILLIONS, soit à peu près le PIB de la Chine). C'est en lien avec leur backup de 300 To de Spotify dont je vous avais parlé ici. Le juge Rakoff a émis une injonction mondiale le 20 janvier, ce qui a fait tomber plusieurs domaines du site .

NVIDIA plaide le "fair use" évidemment. Mouais. On verra bien ce qu'en pensera le juge, mais quand les emails prouvent qu'on t'a prévenu que c'était illégal et que t'as quand même dit "go"... c'est pas ouf comme défense.

En attendant, entre le procès Spotify et ces emails, Anna's Archive est devenue l'ennemi public numéro un de toute l'industrie du contenu sur le web.

Affaire à suivre !

Source

  •  

La Chine autorise l’importation des GPU NVIDIA H200 pour accélérer ses ambitions en IA

Après plusieurs mois d’incertitude, la Chine vient d’approuver une première vague d’importations des puces graphiques NVIDIA H200, destinées aux applications avancées en intelligence artificielle. Cette décision marque un tournant stratégique pour l’écosystème technologique chinois, en quête de performances accrues pour ses infrastructures de calcul, et ce malgré un …

Lire la suite

Aimez KultureGeek sur Facebook, et suivez-nous sur Twitter

N'oubliez pas de télécharger notre Application gratuite iAddict pour iPhone et iPad (lien App Store)


L’article La Chine autorise l’importation des GPU NVIDIA H200 pour accélérer ses ambitions en IA est apparu en premier sur KultureGeek.

  •  

Les premières applications MCP « interactives » arrivent

Une dizaine d’applications connectées à Claude sont désormais « interactives ».

En toile de fond, la stabilisation de la spécification MCP Apps. Elle avait pris forme il y a quelques semaines, à la croisée du projet MCP-UI et de l’Apps SDK d’OpenAI, avec Anthropic dans la boucle. La promesse : standardiser la déclaration de ressources UI par les serveurs MCP.

La spec initiale se concentre sur le contenu text/html. Elle sépare les données des templates pour permettre aux applications hôtes de contrôler ces derniers avant exécution. Le rendu passe par un iframe. Les communications se font sur JSON-RPC et sont donc auditables.

Lors de la connexion à un serveur MCP, l’hôte signale s’il gère ou non ces composants UI. Dans la négative, les outils associés ne délivrent que du texte. Il communique aussi diverses préférences : locale et timezone, thème (clair ou sombre), mode d’affichage (inline, plein écran ou incrustation), plate-forme (mobile, web ou desktop)…

9 applications interactives pour commencer

Microsoft a intégré MCP Apps dans Visual Studio Code pour les bêtatesteurs. L’agent de codage Goose a aussi franchi le pas. Comme OpenAI, censé officialiser dans la semaine ses premières « applications interactives » fondées sur cette spécification.

En attendant, on peut en expérimenter une dizaine sur les versions payantes de Claude (Pro, Max, Team, Enterprise).

Amplitude

Mis à jour avec le support de MCP Apps, le connecteur pour Amplitude permet de créer des graphes et de les explorer (modification du format, affichage d’informations au survol, lien pour les ouvrir dans le navigateur).

Asana

Avec MCP Apps, le connecteur Asana peut créer des projets à partir de prompts et/ou de documents. Pour chaque tâche, les assignations et les dates d’échéance sont modifiables sur l’interface, où on peut aussi afficher une vue calendrier.

Box

MCP Apps permet au connecteur Box d’avoir un aperçu d’un fichiers et de poser des questions à son sujet. L’IA de Box peut prendre le relais de Claude pour résumer des documents et en extraire des actions ou des données structurées.

Canva

MCP Apps pour le connecteur Canva donne la possibilité de créer divers types de contenus (diagrammes, présentations, templates…), de les éditer, d’y faire des recherches et des les redimensionner/exporter.

Clay

En plus des visualisations interactives, MCP Apps apporte, entre autres possibilités, la génération et l’édition de texte, ainsi que la consultation de cartes de profils avec possibilité d’envoyer un message.

Figma

La création de diagrammes – y compris à partir de documents – arrive aussi dans l’application Figma. L’interface permet également d’implémenter un design en HTML/CSS et d’implémenter des composants en s’appuyant sur les standards d’une codebase.

Hex

MCP apporte diverses visualisations interactives (diagrammes, tables, étapes de raisonnement). Les réponses héritent du contexte et des contrôles d’accès de l’espace de travail Hex, nous précise-t-on.

Monday.com

Les visualisations apportées par MCP Apps permettent de créer des tableaux (boards), de mettre à jour le statut de certains éléments et d’obtenir des suggestions pour l’attribution de tâches.

Monday Claude MCP Apps

Slack

Telle que présentée, l’intégration Claude-Slack à la mode MCP Apps permet de composer/éditer des messages et de les envoyer dans des canaux ou à des membres d’équipe.

Toutes ces fonctionnalités sont accessibles sur le web et la version de bureau. Pas sur l’app mobile Claude. Anthropic affirme qu’il les étendra « bientôt » à son produit Cowork.

Illustration principale générée par IA

The post Les premières applications MCP « interactives » arrivent appeared first on Silicon.fr.

  •  

LLM Visualization

Très impressionnant : une représentation visuelle et animée d'un LLM (simplifié, 85k paramètres), avec toutes les étapes et les explications. Il faut appuyer sur espace pour passer d'une étape à l'autre.


Permalink
  •  
❌