Vue normale

LinkedIn, source numéro un des chatbots IA pour les recherches professionnelles

11 mars 2026 à 13:39

En l’espace de trois mois, LinkedIn est devenu l’une des références incontournables des moteurs de réponse par intelligence artificielle. C’est ce que révèle une étude publiée par Profound, plateforme spécialisée dans l’analyse marketing de l’IA, et reprise par Axios.

Entre novembre 2025 et février 2026, la fréquence de citation de LinkedIn par ChatGPT a plus que doublé. Le réseau professionnel est passé d’une 11e position environ en novembre à une 5e place en février,  soit la progression la plus significative observée par Profound sur cette période.

Mieux encore : sur l’ensemble des grandes plateformes d’IA analysées ( ChatGPT, Gemini, Google AI Overviews, Google AI Mode, Microsoft Copilot et Perplexity ), LinkedIn est aujourd’hui le domaine le plus cité pour les requêtes à caractère professionnel, sur la base de 1,4 million de citations analysées.

Le contenu publié prend le dessus sur les profils

L’étude de Profound met en lumière une évolution notable dans la nature des contenus LinkedIn repris par les IA.

Si les profils représentaient 33,9 % des citations en novembre 2025, cette part est tombée à 14,5 % en février 2026. À l’inverse, les publications (posts du fil d’actualité), les articles longs et les newsletters ont vu leur poids croître : combinés, ils représentent désormais environ 35 % de l’ensemble des citations LinkedIn dans ChatGPT, contre 27 % trois mois plus tôt. Les moteurs de réponse s’appuient donc de plus en plus sur le contenu éditorial produit sur la plateforme — qu’il émane de particuliers, d’entreprises ou de médias spécialisés.

Pourquoi LinkedIn attire les IA

Ce phénomène s’inscrit dans une tendance plus large. Des plateformes communautaires comme Reddit, Wikipédia ou YouTube figurent également parmi les sources les plus citées par les IA, précisément parce qu’elles concentrent une connaissance humaine authentique et conversationnelle.

Les modèles de langage y trouvent des réponses nuancées à des questions complexes. LinkedIn, avec sa densité de contenus professionnels accessibles au public, remplit aujourd’hui ce rôle dans le domaine des affaires et de l’expertise sectorielle.

Des implications concrètes pour les professionnels et les marques

Pour Erin Lanuti, cofondatrice de la plateforme d’analyse de données LinkedIn Lilypath, citée par Axios, le signal est clair : « La visibilité professionnelle est en train de changer. Il ne s’agit plus seulement de la façon dont les gens se présentent aux autres. Il s’agit de plus en plus de la façon dont les machines les interprètent en premier lieu. »

source principale d’autorité professionnelle, la clarté d’un profil devient déterminante pour savoir si une personne est mise en avant, jugée crédible  ou tout simplement ignorée.

Pour les entreprises, l’enjeu est similaire : chaque publication d’un commercial, chaque réflexion d’un dirigeant ou chaque mise à jour produit d’un chef de produit peut désormais contribuer à la façon dont la marque apparaît dans les réponses générées par l’IA.

Une fenêtre d’opportunité encore ouverte

Profound souligne que cette évolution ouvre une fenêtre d’opportunité encore peu exploitée. La majorité des marques n’ont pas encore ajusté leur stratégie pour en tenir compte. Celles qui investissent dès maintenant dans une présence éditoriale active sur LinkedIn pourraient bénéficier d’un avantage cumulatif, à mesure que les moteurs de réponse continuent de traiter la plateforme comme une source fiable.

LinkedIn rappelle toutefois que les outils de recherche par IA générative ne peuvent faire apparaître que les contenus rendus publics par les utilisateurs. « Nous continuons à protéger les données de nos membres contre toute extraction non autorisée », a précisé un porte-parole de la plateforme à Axios.

The post LinkedIn, source numéro un des chatbots IA pour les recherches professionnelles appeared first on Silicon.fr.

Canal+ choisit Google Cloud et OpenAI pour transformer son service de streaming

11 mars 2026 à 12:56

Le groupe audiovisuel Canal+ annonce des contrats pluriannuels avec Google Cloud et OpenAI. pout intégrer l’intelligence artificielle générative dans ses processus de production et son service de streaming.

Ces accords visent à concurrencer les algorithmes de recommandation de Netflix. Canal+ veut atteindre 100 millions d’abonnés d’ici 2030.

Les deux partenariats sont « très complémentaires », a déclaré le PDG Maxime Saada à Reuters. Google se concentre sur l’extraction de données. OpenAI alimente le moteur de recherche et de recommandation pour améliorer l’expérience des abonnés. Ces technologies vont indexer l’intégralité du catalogue de Canal+ pour personnaliser les recommandations.

« Nous allons travailler sur la donnée », a précisé Maxime Saada. Les modèles de Google identifient tous les éléments d’une scène dans un film ou une série. Canal+ exploite ensuite ces données avec OpenAI pour améliorer les moteurs de recherche et de recommandation.

Veo 3 pour les équipes de production

À partir de juin 2026, Canal+ déploiera un nouveau système de recherche. Fini les requêtes par mots-clés : les abonnés pourront formuler leurs demandes en langage naturel et recevoir des propositions personnalisées. Ce déploiement couvrira les marchés européens et africains où l’application Canal+ est disponible.

Canal+ mettra aussi Veo 3 à disposition de ses équipes de production. Cet outil d’IA générative vidéo de Google permettra aux créateurs de pré-visualiser des scènes avant le tournage ou de reconstituer des moments historiques à partir de photographies d’archives.

Sur la propriété intellectuelle, Canal+ assure que les partenariats intègrent des protections solides. Le groupe conserve ses droits et la propriété de ses contenus au sein de l’environnement sécurisé de Google Cloud.

The post Canal+ choisit Google Cloud et OpenAI pour transformer son service de streaming appeared first on Silicon.fr.

Meta rachète Moltbook, le « Reddit des bots IA »

11 mars 2026 à 12:14

Meta renforce sa stratégie IA avec le rachat de Moltbook. Cette plateforme se présente comme un « Reddit pour agents IA », où des agents créés avec la technologie OpenClaw publient, commentent et interagissent entre eux — sans utilisateurs humains. Meta n’a communiqué aucun détail financier.

Lancé fin janvier, le service a très vite attiré l’attention de l’écosystème. Il se positionne comme un réseau social expérimental réservé aux bots, capables de discuter entre eux et parfois de « commérer » sur leurs utilisateurs.

L’opération s’inscrit dans la montée en puissance de Meta Superintelligence Labs (MSL), l’entité IA du groupe qui cherche à développer des agents plus contextuels pour accompagner les utilisateurs dans leur vie quotidienne et aider les entreprises dans leurs processus.

Moltbook, un « réseau social » pour bots

Moltbook héberge des agents IA, souvent des assistants personnels pilotant des tâches sur les appareils des utilisateurs. Ces agents tiennent des conversations publiques, partagent des posts et interagissent dans des fils de discussion proches de Reddit. Ils reposent sur OpenClaw, un agent IA capable de rédiger des emails, organiser des agendas, coder ou automatiser des workflows sur le terminal de l’utilisateur.

Meta met en avant l’architecture de Moltbook, basée sur un annuaire toujours actif d’agents. Ces agents peuvent se découvrir, se connecter et coopérer. Dans ce modèle, des agents spécialisés se coordonnent via un réseau social, plutôt qu’au sein d’un seul système monolithique. Meta présente cette approche comme une « avancée novatrice dans un domaine en pleine évolution ».

Les cofondateurs de Moltbook, Matt Schlicht (CEO) et Ben Parr (COO), rejoignent les équipes de MSL.

Meta présente Moltbook comme un complément à sa stratégie de superintelligence. Cette stratégie vise des systèmes « profondément contextuels », capables d’aider les utilisateurs sur la durée, dans leurs habitudes, leurs relations ou leur travail.

Enjeux de sécurité

La trajectoire de Moltbook comporte des zones d’ombre. La plateforme suscite des inquiétudes sur la cybersécurité des systèmes multi-agents. Il est aussi difficile de tracer la part réelle d’autonomie des bots par rapport à leurs créateurs.

L’écosystème IA débat activement de la gouvernance des agents autonomes. Dans ce contexte, l’intégration de Moltbook chez Meta risque d’accentuer les débats sur la supervision, l’audit des comportements d’agents et la protection des données exposées dans ces environnements.

Meta insiste sur le potentiel de ces réseaux d’agents. Ils pourraient créer de nouveaux cas d’usage : des assistants métiers collaboratifs ou des systèmes de support client distribués. Mais Meta fait déjà l’objet d’une surveillance étroite sur sa gestion des données et de la modération. L’industrialisation d’un « Facebook des IA » pourrait donc devenir un nouveau terrain de tension avec les régulateurs européens — notamment sur la transparence des modèles et la responsabilité en cas de dérives d’agents.

Illustration générée par l’IA

 

The post Meta rachète Moltbook, le « Reddit des bots IA » appeared first on Silicon.fr.

VM cloud : AMD reste dans le match du rapport coût-performance

11 mars 2026 à 09:27

En performance par thread, les instances Arm rattrapent les instances Intel et AMD.

À l’automne 2024, Dimitrios Kechiagas, développeur chez SpareRoom (site de colocation entre particuliers), avait fait la remarque. Il venait de tester 30 références de VM cloud, de 7 fournisseurs (Akamai, Amazon, DigitalOcean, Google, Hetzner, Microsoft et Oracle).

Ce comparatif a récemment été mis à jour. Avec les 7 mêmes fournisseurs, mais davantage de références de VM (44). Le focus reste sur les workloads CPU (« usage générique »). Et sur les configs à 2 vCPU, la plupart des instances Intel et AMD ayant désormais le multithreading activé par défaut.

La méthodologie de test

La composition du benchmark – disponible en image Docker – a légèrement évolué. Geekbench 5 en fait toujours partie. Les tests OpenSSL et 7-zip de Phoronix aussi, mais pas la compilation du noyau Linux, remplacée par un test nginx. Dimitrios Kechiagas y a ajouté du transcodage FFmpeg. Le cœur du benchmark reste reconduit sa suite maison DKbench. Elle réunit une vingtaine de tests parmi lesquels :

  • Intégrer du CSS sur des pages de wiki
  • Appliquer des filtres à une image (bruit gaussien, masque flou, fractales…)
  • Calculer des nombres premiers
  • Compter les codons dans une séquence bactérienne
  • Trouver une constellation à partir d’une position céleste (coordonnées équatoriales pour une époque donnée)

Au possible, on associe 2 Go de RAM à chaque vCPU et on ajoute un SSD de 30 Go comme volume d’amorçage. Dans la plupart des cas, l’OS est Debian 13 64 bits (parfois Ubuntu 24.04, et Oracle Linux sur les VM Arm d’OCI). Avec les quelques types d’instances qui imposent un minimum de 4 vCPU et sur lesquels on ne peut pas en désactiver, les résultats sont extrapolés. Pour disposer d’intervalles représentatifs, on essaye de créer deux ou trois instances à différents moments, et dans diverses régions si possible.

Nous présentons ici une partie des résultats. En l’occurrence, les ratios coût/performance, exprimés en points DKbench par $. Les fournisseurs sont classés selon le ratio maximal sur la meilleure de leurs instances parmi celles testées*.

Tarification à la demande

Est prise en compte la région cloud au coût le plus bas entre États-Unis et Europe.

En monothread

Fournisseur VM Min. Max.
Hetzner CCX13
(AMD Milan, 8 Go RAM, 80 Go SSD)
53,80 70,70
Oracle Standard.E6
(AMD Turin, 4/30)
54,40 55,10
Akamai Linode 4GB
(AMD Milan, 4/80)
29,20 37,70
Google n4d-2
(AMD Turin, 4/30)
30,10 30,60
DigitalOcean PremAMD 2/4
(AMD Rome, 4/80, cœur partagé)
23,60 27,90
Microsoft D2pls_v6
(Azure Cobalt 100, 4/32)
21,90 22,50
Amazon c8a.large
(AMD Turin, 4/30)
19,40 19,90

 

Grâce aux puces AMD Turin, Oracle se rapproche de Hetzner. AWS est globalement le moins bien-disant.

Dans l’absolu, on trouve des ratios encore meilleurs chez Hetzner avec les instances à cœurs partagés CAX11 (Ampere Altra ; 122,30 à 130,80 points par $), CPX22 (AMD Genoa ; 134,10 à 142,10) et CX23 (souvent Intel Skylake ; parfois AMD Rome, auquel cas le ratio est dans la fourchette de 144,20 à 175,70). Mais leur disponibilité limitée n’en fait pas de vraies concurrentes, estime Dimitrios Kechiagas, qui ne les a par là même pas incluses dans les résultats.

En multithread

Fournisseur VM Min. Max.
Oracle Standard.A4
(Ampere AmpereOne M, 4/30)
89,40 90,23
Hetzner CCX13 63,47 84,84
Akamai Linode 4GB 57,63 73,96
DigitalOcean PremAMD 2/4 44,61 55,61
Microsoft D2pls_v6 42,89 44,69
Google c4a-2
(Google Axion, 4/30)
42 42,09
Amazon c8a.large 38,72 39,26

Sur ce plan, trois instances Arm dominent, toutes de chez Oracle. La Standard.A4, donc, ainsi que la Standard.A2 (79,33 à 80,54 points par $) et la Standard.A1 (69,57 à 71,54). L’instance Turin la plus intéressante (65,93 à 66,86) se trouve aussi sur OCI. AWS est plus proche des configurations Arm de Google (Axion) et de Microsoft (Cobalt 100) qu’en monothread.

Sur certaines VM x64, le multithreading est désactivé. Dans ce cas, 2 vCPU équivalent à 2 cœurs physiques. C’est le cas, par exemple, pour les c7a d’Amazon.

Les VM PremAMD 2/4 de DigitalOcean, à cœurs partagés, utilisent des CPU AMD Rome. Avec les Linode 4GB d’Akamai, elles aussi à cœurs partagés, le type de processeur assigné peut varier. Le plus souvent, c’est de l’AMD Milan.

Tarification avec 1 an d’engagement

En monothread

Fournisseur VM Min. Max.
Hetzner CCX13 53,80 70,71
Oracle Standard.E6 54,38 55,14
Google n4d-2 46,89 47,71
Microsoft D2pls_v6 35,84 36,95
Akamai Linode 4G 29,21 37,67
Amazon c8i.large
(Intel Granite Rapids, 4/30)
26,85 27,64
DigitalOcean PremAMD 2/4 23,64 27,86

La remise que consent Google lui permet d’être au niveau d’Oracle avec les puces AMD Turin. Azure se révèle intéressant en Cobalt 100 comme en AMD Genoa.

En multithread

Fournisseur VM Min. Max.
Oracle Standard.A4 89,40 90,23
Hetzner CCX13 63,47 84,84
Microsoft D2pls_v6 70,31 73,27
Akamai Linode 4GB 57,63 73,96
Google c4a-2 62,75 62,88
Amazon c8a.large 53,03 53,77
DigitalOcean PremAMD 2/4 44,61 55,61

Oracle est en tête avec ses instances Arm, comme à l’automne 2024. Mais celles de Microsoft (Cobalt 100) s’en rapprochent et celles de Google (Axion) ne sont pas si loin. Le rapport coût/performance a nettement progressé chez AWS.

Tarification avec 3 ans d’engagement

En monothread

Fournisseur VM Min. Max.
Google n4d-2 64,43 65,55
Hetzner CCX13 53,80 70,71
Oracle Standard.E6 54,38 55,14
Microsoft D2pls_v6 53,19 54,82
Amazon c8i.large 39,29 40,45
Akamai Linode 4GB 29,21 37,67
DigitalOcean PremAMD 2/4 23,64 27,86

L’avantage que Google a avec 1 an d’engagement se retrouve avec 3. Toujours grâce aux AMD Turin, qui rendent aussi l’offre de Microsoft intéressante. AWS a une longueur de retard, mais reste mieux-disant qu’Akamai et DigitalOcean.

En multithread

Fournisseur VM Min. Max.
Microsoft D2pls_v6 104,34 108,73
Google c4a-2 90,22 90,41
Oracle Standard.A4 89,40 90,23
Amazon c8a.large 77,94 79,02
Hetzner CCX13 63,47 84,84
Akamai Linode 4GB 57,63 73,96
DigitalOcean PremAMD 2/4 44,61 55,61

En multithread, le nombre de cœurs physiques fait la différence. AWS est dans le coup, même si c’est Microsoft qui s’en sort le mieux, avec une instance en Cobalt 100.

Tarification Spot (VM « préemptibles »)

Sont ici considérés les prix les plus bas obtenus aux États-Unis en janvier 2026.

En monothread

Fournisseur VM Min. Max.
Google c3d-4/2
(AMD Genoa, 4/30, extrapolé de 4 à 2 vCPU)
111,46 114,89
Oracle Standard.E6 104,23 105,68
Microsoft D2pls_v6 93,20 96,06
Hetzner CCX13 53,80 70,71
Amazon c8a.large 54,09 55,53
Akamai Linode 4GB 29,21 37,67
DigitalOcean PremAMD 2/4 23,64 27,86

Avec sa remise fixe de 50 %, Oracle est systématiquement intéressant (instances environ deux fois moins chères qu’avec 3 ans d’engagement).

En multithread

Fournisseur VM Min. Max.
Microsoft D2pls_v6 182,83 190,52
Oracle Standard.A4 167,79 169,35
Google t2d-2
(AMD Milan, 8/30)
138,55 153,54
Amazon c8a.large 108,23 109,74
Hetzner CCX13 63,47 84,84
Akamai Linode 4GB 57,63 73,96
DigitalOcean PremAMD 2/4 44,61 55,61

Les deux meilleures instances ont des processeurs Arm (Cobalt 100 et AmpereOne M). Déjà distinguée à l’automne 2024, la t2d de Google (en AMD Milan) se classe troisième.

Au global, les instances CCX13 de Hetzner sont celles dont la performance varie le plus selon le datacenter où on les crée.

Microsoft a eu du retard sur Amazon et Google pour la mise à disposition des puces AMD Turin (GA fin janvier 2026). Les Intel Granite Rapids sont encore en preview.

La flotte de DigitalOcean fait son âge. Mais les prix bas – et stables entre régions – demeurent intéressants pour les workloads où le rapport coût/performance n’importe pas.

* 12 VM testées chez Google, 11 chez Amazon, 6 chez Microsoft, 5 chez Hetzner, 4 chez Oracle, 3 chez Akamai comme chez DigitalOcean.

Illustration générée par IA

The post VM cloud : AMD reste dans le match du rapport coût-performance appeared first on Silicon.fr.

❌