Vue lecture

Macrohard : Elon Musk relance son projet d’entreprise logicielle 100% IA

Elon Musk a officiellement lancé Macrohard, un projet qui vise à transformer la manière dont les logiciels sont conçus et exploités, en s’appuyant presque exclusivement sur des agents d’IA autonomes.

Un pied de nez à Microsoft… et bien plus

Macrohard est né au sein de xAI, la société d’intelligence artificielle d’Elon Musk, comme une “entreprise logicielle entièrement gérée par l’IA”, avec un nom volontairement sarcastique qui fait clairement référence à Microsoft.

Dès l’origine, il présente le projet comme une riposte directe aux géants du logiciel, avec l’ambition de simuler une société de type Microsoft qui “fait tout, sauf produire des objets physiques”.

Dans ses communications sur X, il insiste sur le fait qu’il ne s’agit pas d’un simple meme ou d’une blague marketing : Macrohard doit servir de démonstrateur à grande échelle de ce qu’une entreprise “full IA” peut faire, de la conception de produits à leur mise en production.

Macrohard or Digital Optimus is a joint xAI-Tesla project, coming as part of Tesla’s investment agreement with xAI.

Grok is the master conductor/navigator with deep understanding of the world to direct digital Optimus, which is processing and actioning the past 5 secs of…

— Elon Musk (@elonmusk) March 11, 2026

Digital Optimus, Grok et les agents autonomes

Macrohard, parfois présenté sous le nom de code Digital Optimus, s’appuie sur une architecture mêlant modèle de langage et agents opérationnels.

Le LLM Grok, développé par xAI, joue le rôle de “navigateur” ou de couche décisionnelle de haut niveau, là où les agents issus de l’écosystème Tesla exécutent les tâches concrètes, en traitant en temps réel le flux vidéo de l’écran, les frappes clavier et les mouvements de souris.

Techniquement, le projet vise à orchestrer des centaines d’agents spécialisés : génération de code, tests automatisés, génération de contenus, simulation d’utilisateurs, mais aussi gestion de processus métiers, le tout dans une boucle fermée où l’IA conçoit, exécute et corrige sans intervention humaine directe.

Pour supporter ces charges, Macrohard s’appuie sur les nouveaux accélérateurs AI4 de Tesla, présentés comme très peu coûteux, complétés par une infrastructure de serveurs basée sur du matériel Nvidia opérée par xAI.

Une alliance Tesla–xAI et une escalade capitalistique

Le lancement de Macrohard s’inscrit dans un rapprochement capitalistique entre Tesla et xAI, formalisé par un accord d’investissement de 2 milliards $ signé en début d’année. Musk y voit un prolongement naturel de sa stratégie consistant à repositionner Tesla comme une entreprise d’IA et de robotique avant d’être un constructeur automobile, en alignant robots physiques (Optimus) et “jumeaux” numériques (Digital Optimus / Macrohard).

Parallèlement, SpaceX a racheté xAI dans le cadre d’une opération valorisée 1250 milliards $ avec l’idée d’arrimer la prochaine génération de data centers, potentiellement orbitaux, à ces workloads IA massifs.

xAI a aussi sécurisé la marque Macrohard auprès de l’office américain des brevets dès 2025, couvrant un spectre large de logiciels liés à la génération de texte, de voix, de jeux vidéo et à l’automatisation de tâches logicielles.

Objectif : une entreprise logicielle “entièrement IA”

Dans sa communication, Musk résume Macrohard comme la tentative de “reproduire les opérations d’entreprises entières”, en particulier celles du logiciel. L’idée consiste à automatiser, via des agents IA, l’ensemble de la chaîne de valeur d’un éditeur : spécification produit, développement, QA, déploiement, exploitation et support, jusqu’à la gestion de la relation client simulée.

Macrohard se distingue des approches classiques d’“assistants pour développeurs” en visant explicitement le remplacement d’une grande partie des fonctions d’une société de logiciels, et non leur simple augmentation.

Pour Musk, c’est une réponse à l’alliance Microsoft-OpenAI : là où ces acteurs proposent des copilotages humains+IA, Macrohard se positionne sur le modèle inverse, celui d’une entreprise à majorité algorithmique supervisée par un nombre limité d’humains.

Impacts potentiels pour l’écosystème logiciel

Pour le secteur du logiciel, l’ambition de Macrohard soulève trois types de questions majeures
Si des agents peuvent répliquer une part significative du cycle de vie logiciel, la pression sur les marges des éditeurs traditionnels pourrait s’accroître, avec une redéfinition de la chaîne de valeur autour de l’orchestration d’IA plutôt que du développement humain.

Ensuite, la délégation de la production logicielle à des systèmes autonomes renforce les enjeux de vérification, de robustesse et de sécurité applicative, notamment face aux hallucinations, aux bugs indétectés et à la génération de vulnérabilités exploitables.

Enfin, la promesse d’une “entreprise logicielle sans développeurs” interroge sur l’évolution des métiers du développement, potentiellement déplacés vers la supervision d’agents, la gouvernance des données et la définition de politiques de contrôle.

The post Macrohard : Elon Musk relance son projet d’entreprise logicielle 100% IA appeared first on Silicon.fr.

  •  

Les milliards d’OpenAI alimentent aussi des acquisitions

Où vont tous ces capitaux que lève OpenAI ?

La principale réponse, c’est l’infrastructure. Aux dernières nouvelles, l’entreprise entend y consacrer jusqu’à 600 Md$ d’ici à 2030.

En filigrane, elle réalise des acquisitions. En voici une quinzaine, bouclées entre 2023 et 2026.

Promptfoo (mars 2026)

Cette start-up américaine née en 2024 a développé des outils qui automatisent le test et l’évaluation des applications IA. Elle revendique 130 000 développeurs actifs par mois.

Sa suite est open source – et elle le restera malgré l’acquisition par OpenAI, qui compte en intégrer les composantes dans sa plate-forme agentique Frontier.

Au socle open source (CLI + bibliothèque), Promptfoo a greffé une version commerciale. Elle donne accès à des fonctions collaboratives, à du monitoring, à l’API et à la personnalisation des profils d’attaques, entre autres.

OpenClaw (février 2026)

OpenAI n’a pas tant acquis la technologie derrière OpenClaw qu’embauché son créateur Peter Steinberger. L’intéressé avait déjà vendu une entreprise, constituée autour de son projet PSPDFKit (bibliothèque JavaScript pour l’édition de PDF).

OpenClaw sera confié à une fondation et demeurera indépendant, nous promet-on.

Crixet, Torch Health et Convogo (janvier 2026)

Critex, start-up américaine née en 2023, a développé un espace de travail pour la rédaction et la collaboration scientifiques, basé sur LaTeX. OpenAI l’a rendu gratuit et y a intégré GPT-5.2.

À l’image d’OpenClaw, Torch Health est un acqui-hire. La start-up avait été fondée en 2025 par des anciens de Forward Health. N’ayant pas réussi à imposer leurs « kiosques de santé » alimentés par IA, ils avaient pivoté vers une « mémoire médicale unifiée ». Plus précisément, l’orchestration des données du parcours des patients : résultats d’analyse en laboratoire, ordonnances, comptes rendus de rendez-vous médicaux… L’ensemble est venu nourrir ChatGPT Health. OpenAI y aurait investi 60 M$.

Acqui-hire également avec Convogo. Cette start-up est née en 2023. Elle a exploité l’IA pour faciliter le travail documentaire des consultants (analyse des entretiens, enquêtes et autres éléments de feed-back). Adobe, Expedia, HP, Logitech et X ont fait partie de ses clients.

Neptune (décembre 2025)

Né dans les années 2010, Neptune – marque de l’entreprise CodiLime – était initialement un outil DSML (data science et machine learning). Il a évolué pour couvrir plus largement le cycle l’entraînement des modèles d’IA. OpenAI a promis d’en intégrer les capacités dans sa stack.

Début mars, l’offre SaaS a fermé, comme les dépôts où récupérer les images de conteneurs. Les utilisateurs ont été invités à basculer vers des solutions comme GoodSeed, Pluto, Lightning AI, ZenML et Comet.

Software Applications Incorporated et Roi (octobre 2025)

En 2023, des anciens d’Apple fondaient Software Applications Incorporated. Ils allaient développer Sky, un assistant IA pour Mac. Sam Altman avait financé l’entreprise. OpenAI s’en est emparé pour enrichir ChatGPT.

Né en 2022, Roi avait développé un assistant pour la gestion des finances personnelles. Il a fermé en octobre, ses créateurs rejoignant OpenAI.

Alex et Statsig (septembre 2025)

Encore un acqui-hire avec Alex. Cette start-up américaine née en 2024 avait développé de quoi exploiter des modèles d’IA dans Xcode. C’était avant qu’Apple décide de créer sa propre interface (en 2025).
L’équipe a rejoint la division Codex d’OpenAI. Son produit existe toujours, mais ne reçoit plus de mises à jour et n’accepte pas de nouveaux utilisateurs.

L’acquisition de Statsig aurait coûté plus d’un milliard $. Avec elle, OpenAI s’est doté d’une solution d’A/B testing. Elle reste commercialisée, avec des références clients comme Atlassian, Microsoft et Decathlon. Il existe une version gratuite, limitée toutefois en volume mensuel d’événements et de rejeux de sessions, comme sur la durée de conservation des données. La version Pro donne par ailleurs accès à l’API. La version Enterprise, au SSO, à un support prioritaire et au déploiement natif sur data warehouse.

Crossing Minds (juin 2025)

Né en 2017, Crossing Minds accompagnait les entreprises du e-commerce dans l’évolution de leurs systèmes de recommandation. OpenAI n’était pas tant intéressé par cette techno que par ses développeurs. Qui, depuis l’acquisition, ont produit le module Company Knowledge, lequel permet à CharGPT de travailler sur des connaissances internes.

iO (mai 2025)

OpenAI aurait déboursé 6,5 Md$, intégralement en actions, pour s’emparer de cette start-up derrière laquelle on trouve des anciens d’Apple. Nommément, Jony Ive, ancien Chief Design Officer de la maison. Mais aussi Evans Hankey, qui fut son successeur. Et Tang Tan, ancien concepteur principal de l’iPhone.

Né en 2024, iO s’est donné l’objectif de repenser l’interaction homme-machine en concevant des interfaces physiques adaptées à l’usage de l’IA. Avant l’acquisition, il était déjà en partenariat avec OpenAI, qui était aussi son actionnaire.

Context.ai (avril 2025)

Née en 2023, cette start-up anglaise avait développé un outil d’analyse de la performance des applications IA, sur la base des interactions en langage naturel dans les interfaces de chat. Depuis le passage dans le giron d’OpenAI, ses produits n’existent plus. Une autre entreprise, à l’origine d’une plate-forme de développement de modèles, a repris le nom de domaine.

Multi et Rockset (juin 2024)

Remotion était une couche collaborative pour macOS. En août 2023, elle était devenue Multi, en conséquence d’un recentrage sur les équipes techniques. Elle fermerait en juillet 2024, peu après qu’OpenAI l’ait acquise.

Rockset était né en 2016 sous l’impulsion d’anciens de Facebook. Comptant dans son équipe un des fondateurs de Hadoop, elle avait développé une base de données orientée documents, reposant sur une déclinaison du moteurs RocksDB.
Le produit était présenté sous l’angle de la recherche hybride au moment où OpenAI a mis la main dessus, pour renforcer ses technologies de RAG. Sa commercialisation a pris fin en septembre 2024.

Global Illumination (août 2023)

Des anciens de Facebook, de Google et de Riot Games, entre autres, s’étaient réunis pour créer cette entreprise en 2023. Ils avaient conçu diverses « expériences numériques ». Il en reste aujourd’hui Biomes, un MMORPG open source.

Illustration générée par IA

The post Les milliards d’OpenAI alimentent aussi des acquisitions appeared first on Silicon.fr.

  •  

Comment l’IA générative remodèle le paysage des cybermenaces

L’IA générative ne crée pas de nouvelles formes d’attaques, elle les industrialise. C’est l’un des constats majeur de l’édition 2025 du   » Panorame de la cybermenace »  de l’ANSSI.

L’agence identifie plusieurs effets directs. D’abord, une hausse de la qualité des leurres utilisés dans les campagnes d’hameçonnage.

Les erreurs grammaticales et stylistiques qui permettaient auparavant à un utilisateur averti de repérer un e-mail malveillant tendent à disparaître. L’IA aide à produire des contenus plus convaincants, en plus grand nombre, avec une diversité accrue et  à moindre coût.

L’ANSSI note également une réduction du coût de maintien des infrastructures d’attaque, ce qui abaisse la barrière d’entrée pour des acteurs moins sophistiqués.

Des sites malveillants indétectables à l’œil nu

L’un des signaux les plus concrets relevés par l’agence concerne la création de sites web à l’apparence légitime, entièrement générés par des systèmes d’IA.

Ces sites servent à héberger des charges malveillantes ou à effectuer ce que l’ANSSI appelle de la caractérisation, autrement dit, le profilage technique des visiteurs avant de les compromettre.

Comment les équipes de l’agence ont-elles détecté la nature artificielle de ces sites ? Par une anomalie révélatrice : l’insertion de textes incohérents au beau milieu de paragraphes, sans lien logique avec le reste du contenu. Un signe subtil, qui confirme que la vigilance humaine reste, pour l’instant, un maillon essentiel de la détection.

Le cercle vicieux de la pollution des données d’entraînement

L’IA générative ne se retourne pas seulement contre les utilisateurs finaux, elle menace aussi l’intégrité des modèles eux-mêmes.

L’ANSSI identifie ici un risque systémique : la multiplication de contenus fallacieux sur Internet finit par contaminer les jeux de données utilisés pour entraîner les futurs modèles.

Le mécanisme est simple. Les grands modèles de langage apprennent à partir des données disponibles sur le web. Si ces données sont massivement polluées par des contenus artificiels et erronés  produits par d’autres IA, dans un but malveillant ou non, les modèles de nouvelle génération intègreront ces biais et inexactitudes dans leurs réponses.

Selon l’agence nationale, des acteurs malveillants exploitent délibérément ce vecteur : en inondant le web de contenus fabriqués, ils cherchent à altérer le comportement des services d’IA pour fausser leurs résultats. Les services d’IA générative sont ainsi devenus des cibles prioritaires à part entière.

L’IA dans les entreprises : une surface d’attaque qui s’élargit

L’intégration croissante de l’IA dans les flux opérationnels des entreprises entraîne mécaniquement un élargissement de leur surface d’attaque et les conséquences d’une compromission peuvent être sévères.

L’agence en identifie plusieurs catégories :

Confidentialité et intégrité des données. Un système d’IA compromis peut servir de point d’entrée vers le reste du système d’information, avec des risques d’exfiltration de données sensibles ou d’atteinte à l’intégrité des SI connectés.

La chaîne d’approvisionnement logicielle. C’est peut-être le risque le plus structurel identifié par l’ANSSI : la compromission d’un système d’IA spécialisé dans la génération de code pourrait introduire des vulnérabilités ou des portes dérobées dans le code produit, à l’insu total des équipes de développement. Une nouvelle forme d’attaque supply chain, silencieuse et difficile à détecter.

Les risques réputationnels et économiques. Toute fuite de données liée à un système d’IA fait peser un risque sur la confiance des clients, avec des implications potentiellement existentielles pour certaines organisations.

Les recommandations de l’ANSSI : cloisonner, surveiller, auditer

Pour répondre à ces risques, l’ANSSI a publié un guide dédié à la sécurisation des solutions d’IA générative basées sur des LLM.

Les grandes lignes sont les suivantes.

> Cloisonnement. C’est le principe central. L’agence recommande une isolation physique ou fonctionnelle des systèmes d’IA pour éviter qu’une compromission ne se propage. Pour les logiciels dont la conception n’est pas totalement maîtrisée par l’organisation, la recommandation est claire : les déployer sur un poste isolé et dédié.

> Surveillance des flux. Le cloisonnement seul ne suffit pas. Une surveillance active des échanges d’informations des composants d’IA est nécessaire pour détecter toute anomalie comportementale.

> Audits larges. L’ANSSI déconseille les audits à périmètre restreint, qui peuvent laisser dans l’ombre des chemins de compromission entre l’environnement IA et le SI bureautique.

> Ne pas tout miser sur les outils. L’agence pointe une limite importante : une stratégie de sécurité qui repose exclusivement sur des produits — EDR, MFA — est insuffisante. Les attaquants apprennent à contourner ces outils, ou à s’injecter directement dans les sessions utilisateurs légitimes.

> Préparer la gestion de crise. En cas d’incident, la priorité doit être l’isolation immédiate des systèmes compromis, combinée à la révocation des accès de l’attaquant. Cette séquence doit être anticipée dans les plans de continuité (PCA) et de reprise d’activité (PRA).

L’évolution rapide des usages de l’IA impose, selon l’ANSSI, une réévaluation régulière de la menace. Une mise en garde qui s’adresse autant aux RSSI qu’aux directions générales : l’IA n’est plus seulement un outil de productivité, c’est désormais un vecteur de risque à part entière, qui exige une gouvernance de sécurité adaptée.

Photo : © ANSSI 

The post Comment l’IA générative remodèle le paysage des cybermenaces appeared first on Silicon.fr.

  •  

Cybermenaces 2025 : l’ANSSI pointe la reconfiguration des attaques d’Etats

L’ANSSI ne minimise pas le tableau. Si le nombre de cas de rançongiciels est en légère baisse – 128 incidents traités en 2025 contre 141 l’année précédente –  l’agence nationale se garde bien d’y voir un signe d’accalmie.

La menace se reconfigure plutôt qu’elle ne recule : on observe une montée en puissance des exfiltrations de données sans chiffrement, exploitées à des fins de chantage ou revendues sur les marchés clandestins. La pression sur les victimes reste donc entière, même sans blocage des systèmes.

L’édition 2025 de son  » Panorame de la cybermenace  » confirme une tendance lourde : des acteurs étatiques, notamment nord-coréens et chinois, s’emparent désormais d’outils cybercriminels à des fins purement lucratives. La dichotomie traditionnelle entre espionnage d’État et cybercriminalité organisée s’efface, rendant l’attribution des attaques et la réponse institutionnelle bien plus complexes.

Espionnage, sabotage : les États toujours à la manœuvre

Du côté de l’espionnage stratégique, les groupes réputés liés à la Russie -Callisto, Laundry Bear – et à la Chine – Salt Typhoon, APT31 – maintiennent un effort soutenu pour compromettre les réseaux diplomatiques et les infrastructures critiques dans les secteurs des télécommunications et de l’énergie. Une activité de fond, discrète mais persistante, qui vise le long terme.

Le sabotage, lui, prend des formes plus visibles. Fin 2025, des opérations coordonnées ont ciblé les infrastructures électriques polonaises. Des groupes hacktivistes s’en prennent par ailleurs à de petites installations industrielles ( énergies renouvelables, réseaux d’eau ) pour des actions à fort retentissement médiatique. L’objectif n’est plus seulement de paralyser, mais aussi de créer un effet de sidération dans l’opinion publique.

L’arsenal technique se diversifie et s’industrialise

Sur le plan tactique, l’année 2025 confirme plusieurs évolutions structurelles. Les attaquants s’appuient de plus en plus sur des outils légitimes pour brouiller les pistes : logiciels d’accès à distance comme AnyDesk ou TeamViewer, services de stockage cloud tels que Google Drive ou MEGA. En se fondant dans le trafic normal des entreprises, ils compliquent considérablement la détection.

L’intelligence artificielle générative s’impose comme un accélérateur de menace. Elle améliore la qualité et la crédibilité des tentatives d’hameçonnage, permet de générer à grande échelle des sites malveillants à l’apparence légitime, et s’insère progressivement dans les flux opérationnels des organisations pour en exploiter les failles.

L’ingénierie sociale, de son côté, se raffine. Le SIM-Swapping, le MFA Fatigue – technique consistant à saturer un utilisateur de demandes d’authentification jusqu’à ce qu’il valide par lassitude – ou encore la méthode dite « Clickfix », qui pousse la victime à exécuter elle-même une commande malveillante, sont en forte recrudescence.

Ces méthodes misent sur la faillibilité humaine plutôt que sur des vulnérabilités techniques, ce qui les rend particulièrement difficiles à contrer par des outils seuls.

La surface d’attaque s’élargit : bordure, cloud, mobile

Les équipements de bordure – pare-feu, VPN, proxys – restent des portes d’entrée privilégiées. En 2025, des vulnérabilités affectant des solutions majeures comme Ivanti, Fortinet, Citrix ou Microsoft SharePoint ont été massivement exploitées. Ces points névralgiques, exposés directement sur Internet, constituent une cible de choix pour les attaquants cherchant un accès initial discret.

La chaîne d’approvisionnement numérique est également dans le viseur : compromettre un prestataire de services ou un hébergeur cloud permet d’atteindre simultanément un grand nombre de clients finaux.

De nombreux incidents ont ainsi concerné en 2025 le chiffrement de ressources hébergées dans le cloud, illustrant la vulnérabilité des environnements mutualisés.

Enfin, les terminaux mobiles ne sont pas épargnés. Les logiciels espions de type Pegasus ou Triangulation, exploitant des failles « zéro-clic » dans des applications populaires comme WhatsApp, continuent de cibler aussi bien les appareils personnels que professionnels.

Les 4 secteurs les plus exposés

L’éducation et la recherche arrivent en tête des secteurs victimes avec 34 % des incidents traités, devant les ministères et collectivités territoriales (24 %), la santé (10 %) et les télécommunications (9 %). Des secteurs souvent caractérisés par des ressources en cybersécurité limitées, des systèmes d’information hétérogènes et une forte exposition aux données sensibles.

Photo : © DR ANSSI

The post Cybermenaces 2025 : l’ANSSI pointe la reconfiguration des attaques d’Etats appeared first on Silicon.fr.

  •  

LinkedIn, source numéro un des chatbots IA pour les recherches professionnelles

En l’espace de trois mois, LinkedIn est devenu l’une des références incontournables des moteurs de réponse par intelligence artificielle. C’est ce que révèle une étude publiée par Profound, plateforme spécialisée dans l’analyse marketing de l’IA, et reprise par Axios.

Entre novembre 2025 et février 2026, la fréquence de citation de LinkedIn par ChatGPT a plus que doublé. Le réseau professionnel est passé d’une 11e position environ en novembre à une 5e place en février,  soit la progression la plus significative observée par Profound sur cette période.

Mieux encore : sur l’ensemble des grandes plateformes d’IA analysées ( ChatGPT, Gemini, Google AI Overviews, Google AI Mode, Microsoft Copilot et Perplexity ), LinkedIn est aujourd’hui le domaine le plus cité pour les requêtes à caractère professionnel, sur la base de 1,4 million de citations analysées.

Le contenu publié prend le dessus sur les profils

L’étude de Profound met en lumière une évolution notable dans la nature des contenus LinkedIn repris par les IA.

Si les profils représentaient 33,9 % des citations en novembre 2025, cette part est tombée à 14,5 % en février 2026. À l’inverse, les publications (posts du fil d’actualité), les articles longs et les newsletters ont vu leur poids croître : combinés, ils représentent désormais environ 35 % de l’ensemble des citations LinkedIn dans ChatGPT, contre 27 % trois mois plus tôt. Les moteurs de réponse s’appuient donc de plus en plus sur le contenu éditorial produit sur la plateforme — qu’il émane de particuliers, d’entreprises ou de médias spécialisés.

Pourquoi LinkedIn attire les IA

Ce phénomène s’inscrit dans une tendance plus large. Des plateformes communautaires comme Reddit, Wikipédia ou YouTube figurent également parmi les sources les plus citées par les IA, précisément parce qu’elles concentrent une connaissance humaine authentique et conversationnelle.

Les modèles de langage y trouvent des réponses nuancées à des questions complexes. LinkedIn, avec sa densité de contenus professionnels accessibles au public, remplit aujourd’hui ce rôle dans le domaine des affaires et de l’expertise sectorielle.

Des implications concrètes pour les professionnels et les marques

Pour Erin Lanuti, cofondatrice de la plateforme d’analyse de données LinkedIn Lilypath, citée par Axios, le signal est clair : « La visibilité professionnelle est en train de changer. Il ne s’agit plus seulement de la façon dont les gens se présentent aux autres. Il s’agit de plus en plus de la façon dont les machines les interprètent en premier lieu. »

source principale d’autorité professionnelle, la clarté d’un profil devient déterminante pour savoir si une personne est mise en avant, jugée crédible  ou tout simplement ignorée.

Pour les entreprises, l’enjeu est similaire : chaque publication d’un commercial, chaque réflexion d’un dirigeant ou chaque mise à jour produit d’un chef de produit peut désormais contribuer à la façon dont la marque apparaît dans les réponses générées par l’IA.

Une fenêtre d’opportunité encore ouverte

Profound souligne que cette évolution ouvre une fenêtre d’opportunité encore peu exploitée. La majorité des marques n’ont pas encore ajusté leur stratégie pour en tenir compte. Celles qui investissent dès maintenant dans une présence éditoriale active sur LinkedIn pourraient bénéficier d’un avantage cumulatif, à mesure que les moteurs de réponse continuent de traiter la plateforme comme une source fiable.

LinkedIn rappelle toutefois que les outils de recherche par IA générative ne peuvent faire apparaître que les contenus rendus publics par les utilisateurs. « Nous continuons à protéger les données de nos membres contre toute extraction non autorisée », a précisé un porte-parole de la plateforme à Axios.

The post LinkedIn, source numéro un des chatbots IA pour les recherches professionnelles appeared first on Silicon.fr.

  •  

Canal+ choisit Google Cloud et OpenAI pour transformer son service de streaming

Le groupe audiovisuel Canal+ annonce des contrats pluriannuels avec Google Cloud et OpenAI. pout intégrer l’intelligence artificielle générative dans ses processus de production et son service de streaming.

Ces accords visent à concurrencer les algorithmes de recommandation de Netflix. Canal+ veut atteindre 100 millions d’abonnés d’ici 2030.

Les deux partenariats sont « très complémentaires », a déclaré le PDG Maxime Saada à Reuters. Google se concentre sur l’extraction de données. OpenAI alimente le moteur de recherche et de recommandation pour améliorer l’expérience des abonnés. Ces technologies vont indexer l’intégralité du catalogue de Canal+ pour personnaliser les recommandations.

« Nous allons travailler sur la donnée », a précisé Maxime Saada. Les modèles de Google identifient tous les éléments d’une scène dans un film ou une série. Canal+ exploite ensuite ces données avec OpenAI pour améliorer les moteurs de recherche et de recommandation.

Veo 3 pour les équipes de production

À partir de juin 2026, Canal+ déploiera un nouveau système de recherche. Fini les requêtes par mots-clés : les abonnés pourront formuler leurs demandes en langage naturel et recevoir des propositions personnalisées. Ce déploiement couvrira les marchés européens et africains où l’application Canal+ est disponible.

Canal+ mettra aussi Veo 3 à disposition de ses équipes de production. Cet outil d’IA générative vidéo de Google permettra aux créateurs de pré-visualiser des scènes avant le tournage ou de reconstituer des moments historiques à partir de photographies d’archives.

Sur la propriété intellectuelle, Canal+ assure que les partenariats intègrent des protections solides. Le groupe conserve ses droits et la propriété de ses contenus au sein de l’environnement sécurisé de Google Cloud.

The post Canal+ choisit Google Cloud et OpenAI pour transformer son service de streaming appeared first on Silicon.fr.

  •  

Meta rachète Moltbook, le « Reddit des bots IA »

Meta renforce sa stratégie IA avec le rachat de Moltbook. Cette plateforme se présente comme un « Reddit pour agents IA », où des agents créés avec la technologie OpenClaw publient, commentent et interagissent entre eux — sans utilisateurs humains. Meta n’a communiqué aucun détail financier.

Lancé fin janvier, le service a très vite attiré l’attention de l’écosystème. Il se positionne comme un réseau social expérimental réservé aux bots, capables de discuter entre eux et parfois de « commérer » sur leurs utilisateurs.

L’opération s’inscrit dans la montée en puissance de Meta Superintelligence Labs (MSL), l’entité IA du groupe qui cherche à développer des agents plus contextuels pour accompagner les utilisateurs dans leur vie quotidienne et aider les entreprises dans leurs processus.

Moltbook, un « réseau social » pour bots

Moltbook héberge des agents IA, souvent des assistants personnels pilotant des tâches sur les appareils des utilisateurs. Ces agents tiennent des conversations publiques, partagent des posts et interagissent dans des fils de discussion proches de Reddit. Ils reposent sur OpenClaw, un agent IA capable de rédiger des emails, organiser des agendas, coder ou automatiser des workflows sur le terminal de l’utilisateur.

Meta met en avant l’architecture de Moltbook, basée sur un annuaire toujours actif d’agents. Ces agents peuvent se découvrir, se connecter et coopérer. Dans ce modèle, des agents spécialisés se coordonnent via un réseau social, plutôt qu’au sein d’un seul système monolithique. Meta présente cette approche comme une « avancée novatrice dans un domaine en pleine évolution ».

Les cofondateurs de Moltbook, Matt Schlicht (CEO) et Ben Parr (COO), rejoignent les équipes de MSL.

Meta présente Moltbook comme un complément à sa stratégie de superintelligence. Cette stratégie vise des systèmes « profondément contextuels », capables d’aider les utilisateurs sur la durée, dans leurs habitudes, leurs relations ou leur travail.

Enjeux de sécurité

La trajectoire de Moltbook comporte des zones d’ombre. La plateforme suscite des inquiétudes sur la cybersécurité des systèmes multi-agents. Il est aussi difficile de tracer la part réelle d’autonomie des bots par rapport à leurs créateurs.

L’écosystème IA débat activement de la gouvernance des agents autonomes. Dans ce contexte, l’intégration de Moltbook chez Meta risque d’accentuer les débats sur la supervision, l’audit des comportements d’agents et la protection des données exposées dans ces environnements.

Meta insiste sur le potentiel de ces réseaux d’agents. Ils pourraient créer de nouveaux cas d’usage : des assistants métiers collaboratifs ou des systèmes de support client distribués. Mais Meta fait déjà l’objet d’une surveillance étroite sur sa gestion des données et de la modération. L’industrialisation d’un « Facebook des IA » pourrait donc devenir un nouveau terrain de tension avec les régulateurs européens — notamment sur la transparence des modèles et la responsabilité en cas de dérives d’agents.

Illustration générée par l’IA

 

The post Meta rachète Moltbook, le « Reddit des bots IA » appeared first on Silicon.fr.

  •  

VM cloud : AMD reste dans le match du rapport coût-performance

En performance par thread, les instances Arm rattrapent les instances Intel et AMD.

À l’automne 2024, Dimitrios Kechiagas, développeur chez SpareRoom (site de colocation entre particuliers), avait fait la remarque. Il venait de tester 30 références de VM cloud, de 7 fournisseurs (Akamai, Amazon, DigitalOcean, Google, Hetzner, Microsoft et Oracle).

Ce comparatif a récemment été mis à jour. Avec les 7 mêmes fournisseurs, mais davantage de références de VM (44). Le focus reste sur les workloads CPU (« usage générique »). Et sur les configs à 2 vCPU, la plupart des instances Intel et AMD ayant désormais le multithreading activé par défaut.

La méthodologie de test

La composition du benchmark – disponible en image Docker – a légèrement évolué. Geekbench 5 en fait toujours partie. Les tests OpenSSL et 7-zip de Phoronix aussi, mais pas la compilation du noyau Linux, remplacée par un test nginx. Dimitrios Kechiagas y a ajouté du transcodage FFmpeg. Le cœur du benchmark reste reconduit sa suite maison DKbench. Elle réunit une vingtaine de tests parmi lesquels :

  • Intégrer du CSS sur des pages de wiki
  • Appliquer des filtres à une image (bruit gaussien, masque flou, fractales…)
  • Calculer des nombres premiers
  • Compter les codons dans une séquence bactérienne
  • Trouver une constellation à partir d’une position céleste (coordonnées équatoriales pour une époque donnée)

Au possible, on associe 2 Go de RAM à chaque vCPU et on ajoute un SSD de 30 Go comme volume d’amorçage. Dans la plupart des cas, l’OS est Debian 13 64 bits (parfois Ubuntu 24.04, et Oracle Linux sur les VM Arm d’OCI). Avec les quelques types d’instances qui imposent un minimum de 4 vCPU et sur lesquels on ne peut pas en désactiver, les résultats sont extrapolés. Pour disposer d’intervalles représentatifs, on essaye de créer deux ou trois instances à différents moments, et dans diverses régions si possible.

Nous présentons ici une partie des résultats. En l’occurrence, les ratios coût/performance, exprimés en points DKbench par $. Les fournisseurs sont classés selon le ratio maximal sur la meilleure de leurs instances parmi celles testées*.

Tarification à la demande

Est prise en compte la région cloud au coût le plus bas entre États-Unis et Europe.

En monothread

Fournisseur VM Min. Max.
Hetzner CCX13
(AMD Milan, 8 Go RAM, 80 Go SSD)
53,80 70,70
Oracle Standard.E6
(AMD Turin, 4/30)
54,40 55,10
Akamai Linode 4GB
(AMD Milan, 4/80)
29,20 37,70
Google n4d-2
(AMD Turin, 4/30)
30,10 30,60
DigitalOcean PremAMD 2/4
(AMD Rome, 4/80, cœur partagé)
23,60 27,90
Microsoft D2pls_v6
(Azure Cobalt 100, 4/32)
21,90 22,50
Amazon c8a.large
(AMD Turin, 4/30)
19,40 19,90

 

Grâce aux puces AMD Turin, Oracle se rapproche de Hetzner. AWS est globalement le moins bien-disant.

Dans l’absolu, on trouve des ratios encore meilleurs chez Hetzner avec les instances à cœurs partagés CAX11 (Ampere Altra ; 122,30 à 130,80 points par $), CPX22 (AMD Genoa ; 134,10 à 142,10) et CX23 (souvent Intel Skylake ; parfois AMD Rome, auquel cas le ratio est dans la fourchette de 144,20 à 175,70). Mais leur disponibilité limitée n’en fait pas de vraies concurrentes, estime Dimitrios Kechiagas, qui ne les a par là même pas incluses dans les résultats.

En multithread

Fournisseur VM Min. Max.
Oracle Standard.A4
(Ampere AmpereOne M, 4/30)
89,40 90,23
Hetzner CCX13 63,47 84,84
Akamai Linode 4GB 57,63 73,96
DigitalOcean PremAMD 2/4 44,61 55,61
Microsoft D2pls_v6 42,89 44,69
Google c4a-2
(Google Axion, 4/30)
42 42,09
Amazon c8a.large 38,72 39,26

Sur ce plan, trois instances Arm dominent, toutes de chez Oracle. La Standard.A4, donc, ainsi que la Standard.A2 (79,33 à 80,54 points par $) et la Standard.A1 (69,57 à 71,54). L’instance Turin la plus intéressante (65,93 à 66,86) se trouve aussi sur OCI. AWS est plus proche des configurations Arm de Google (Axion) et de Microsoft (Cobalt 100) qu’en monothread.

Sur certaines VM x64, le multithreading est désactivé. Dans ce cas, 2 vCPU équivalent à 2 cœurs physiques. C’est le cas, par exemple, pour les c7a d’Amazon.

Les VM PremAMD 2/4 de DigitalOcean, à cœurs partagés, utilisent des CPU AMD Rome. Avec les Linode 4GB d’Akamai, elles aussi à cœurs partagés, le type de processeur assigné peut varier. Le plus souvent, c’est de l’AMD Milan.

Tarification avec 1 an d’engagement

En monothread

Fournisseur VM Min. Max.
Hetzner CCX13 53,80 70,71
Oracle Standard.E6 54,38 55,14
Google n4d-2 46,89 47,71
Microsoft D2pls_v6 35,84 36,95
Akamai Linode 4G 29,21 37,67
Amazon c8i.large
(Intel Granite Rapids, 4/30)
26,85 27,64
DigitalOcean PremAMD 2/4 23,64 27,86

La remise que consent Google lui permet d’être au niveau d’Oracle avec les puces AMD Turin. Azure se révèle intéressant en Cobalt 100 comme en AMD Genoa.

En multithread

Fournisseur VM Min. Max.
Oracle Standard.A4 89,40 90,23
Hetzner CCX13 63,47 84,84
Microsoft D2pls_v6 70,31 73,27
Akamai Linode 4GB 57,63 73,96
Google c4a-2 62,75 62,88
Amazon c8a.large 53,03 53,77
DigitalOcean PremAMD 2/4 44,61 55,61

Oracle est en tête avec ses instances Arm, comme à l’automne 2024. Mais celles de Microsoft (Cobalt 100) s’en rapprochent et celles de Google (Axion) ne sont pas si loin. Le rapport coût/performance a nettement progressé chez AWS.

Tarification avec 3 ans d’engagement

En monothread

Fournisseur VM Min. Max.
Google n4d-2 64,43 65,55
Hetzner CCX13 53,80 70,71
Oracle Standard.E6 54,38 55,14
Microsoft D2pls_v6 53,19 54,82
Amazon c8i.large 39,29 40,45
Akamai Linode 4GB 29,21 37,67
DigitalOcean PremAMD 2/4 23,64 27,86

L’avantage que Google a avec 1 an d’engagement se retrouve avec 3. Toujours grâce aux AMD Turin, qui rendent aussi l’offre de Microsoft intéressante. AWS a une longueur de retard, mais reste mieux-disant qu’Akamai et DigitalOcean.

En multithread

Fournisseur VM Min. Max.
Microsoft D2pls_v6 104,34 108,73
Google c4a-2 90,22 90,41
Oracle Standard.A4 89,40 90,23
Amazon c8a.large 77,94 79,02
Hetzner CCX13 63,47 84,84
Akamai Linode 4GB 57,63 73,96
DigitalOcean PremAMD 2/4 44,61 55,61

En multithread, le nombre de cœurs physiques fait la différence. AWS est dans le coup, même si c’est Microsoft qui s’en sort le mieux, avec une instance en Cobalt 100.

Tarification Spot (VM « préemptibles »)

Sont ici considérés les prix les plus bas obtenus aux États-Unis en janvier 2026.

En monothread

Fournisseur VM Min. Max.
Google c3d-4/2
(AMD Genoa, 4/30, extrapolé de 4 à 2 vCPU)
111,46 114,89
Oracle Standard.E6 104,23 105,68
Microsoft D2pls_v6 93,20 96,06
Hetzner CCX13 53,80 70,71
Amazon c8a.large 54,09 55,53
Akamai Linode 4GB 29,21 37,67
DigitalOcean PremAMD 2/4 23,64 27,86

Avec sa remise fixe de 50 %, Oracle est systématiquement intéressant (instances environ deux fois moins chères qu’avec 3 ans d’engagement).

En multithread

Fournisseur VM Min. Max.
Microsoft D2pls_v6 182,83 190,52
Oracle Standard.A4 167,79 169,35
Google t2d-2
(AMD Milan, 8/30)
138,55 153,54
Amazon c8a.large 108,23 109,74
Hetzner CCX13 63,47 84,84
Akamai Linode 4GB 57,63 73,96
DigitalOcean PremAMD 2/4 44,61 55,61

Les deux meilleures instances ont des processeurs Arm (Cobalt 100 et AmpereOne M). Déjà distinguée à l’automne 2024, la t2d de Google (en AMD Milan) se classe troisième.

Au global, les instances CCX13 de Hetzner sont celles dont la performance varie le plus selon le datacenter où on les crée.

Microsoft a eu du retard sur Amazon et Google pour la mise à disposition des puces AMD Turin (GA fin janvier 2026). Les Intel Granite Rapids sont encore en preview.

La flotte de DigitalOcean fait son âge. Mais les prix bas – et stables entre régions – demeurent intéressants pour les workloads où le rapport coût/performance n’importe pas.

* 12 VM testées chez Google, 11 chez Amazon, 6 chez Microsoft, 5 chez Hetzner, 4 chez Oracle, 3 chez Akamai comme chez DigitalOcean.

Illustration générée par IA

The post VM cloud : AMD reste dans le match du rapport coût-performance appeared first on Silicon.fr.

  •  

Hervé Solus, nouveau CEO de Berger-Levrault

Le Groupe Berger-Levrault, éditeur français de logiciels de gestion destinés aux collectivités territoriales, au secteur sanitaire et médico-social, à la GMAO et à l’éducation, annonce la nomination d’Hervé Solus au poste de directeur général. Il prend ses fonctions le 9 mars 2026.

Hervé Solus a cofondé DigitalRecruiters à l’âge de 19 ans, qu’il a dirigé jusqu’à sa cession au groupe Cegid fin 2022. Il a ensuite rejoint le comité exécutif de Cegid, où il a participé à la transformation et à la croissance du groupe.

À la tête de Berger-Levrault, il entend accélérer l’intégration de l’intelligence artificielle dans les solutions de l’entreprise. «Notre cap est clair et ambitieux : doubler le chiffre d’affaires et faire de Berger-Levrault un acteur « AI First » d’ici 2030. Une transformation que nous mènerons en nous appuyant sur nos plus grandes forces : notre connaissance métier, notre créativité et notre engagement collectif.», déclare-t-il.

Selon ses dépositions, Berger-Levrault a réalisé un chiffre d’affaires de 148 millions € de chiffre d’affaires en 2024 pour un résultat net de 11,4 millions.

Photo : © DR

The post Hervé Solus, nouveau CEO de Berger-Levrault appeared first on Silicon.fr.

  •  

Anthropic contre le Pentagone : une plainte à plusieurs milliards de dollars

Ce 10 mars, Anthropic a saisi la justice pour bloquer le Pentagone. L’entreprise refuse en effet de supprimer les garde-fous de son IA contre les armes autonomes et la surveillance intérieure. Or le secrétaire à la Défense Pete Hegseth avait notifié officiellement cette désignation le 3 mars, après des mois de négociations tendues.

Devant le tribunal fédéral de Californie, Anthropic dénonce des actions « sans précédent et illégales ». Elle invoque aussi une violation de ses droits constitutionnels à la liberté d’expression et au droit à une procédure régulière, selon Reuters. En parallèle, une seconde plainte cible une désignation au titre de risque dans la chaîne d’approvisionnement civile, devant la Cour d’appel du District de Columbia.

Des milliards de dollars en jeu

Les dirigeants d’Anthropic dressent un tableau financier alarmant dans leurs dépositions. Krishna Rao, directeur financier, estime que le gouvernement pourrait réduire le chiffre d’affaires 2026 « de plusieurs milliards de dollars ». Il ajoute que l’impact serait « presque impossible à inverser » si ces actions se maintenaient.

La dépendance au seul Département de la Défense met déjà en péril plusieurs centaines de millions de dollars de revenus 2026. Par ailleurs, les sous-traitants de la défense pourraient réduire leur engagement de 50 % à 100 %. Enfin, l’entreprise anticipe une perte de confiance des investisseurs, ce qui alourdirait ses coûts de financement.

Le secteur public : un pilier menacé

Thiyagu Ramasamy, directeur du secteur public, confirme des dommages « immédiats et irréparables ». Il chiffre la perte directe à plus de 150 millions $ de revenus récurrents annuels. Ce montant concerne les contrats existants et attendus avec le Département de la Défense.

La croissance dans ce segment était pourtant spectaculaire. Entre décembre 2025 et janvier 2026, le taux annualisé des revenus récurrents du secteur public avait quadruplé. De plus, les projections tablaient sur plusieurs milliards de dollars sur cinq ans. Ainsi, si les contractants de défense rompaient leurs liens, les revenus attendus pour 2026 — plus d’un demi-milliard de dollars — pourraient « disparaître entièrement ».

Des clients privés également touchés

Paul Smith, directeur commercial, détaille lui aussi les dommages sur le marché privé. Un partenaire a ainsi abandonné Claude au profit d’un concurrent pour un déploiement de la Food and ​Drug Administration (FDA). Ce changement efface un pipeline de revenus anticipés de plus de 100 millions $.

D’autres contrats souffrent également. Des négociations avec des institutions financières représentant 180 millions $ combinés ont été perturbées. Un contrat de 15 millions $ est en pause. En outre, un client fintech a réduit son engagement de 10 à 5 millions $, citant directement la « situation » avec le Pentagone.

Plus de 100 clients entreprises ont ensuite contacté Anthropic. Ils expriment « une profonde inquiétude, de la confusion et du doute » sur les risques liés à leur association avec la société.

Du côté d’AWS, on aide désormais les clients à migrer leurs charges de travail liées au Département de la Guerre vers d’autres modèles. Toutefois, AWS précise que Claude reste disponible pour toutes les charges de travail sans lien avec le Pentagone.

Un bras de fer aux répercussions sectorielles

Ce conflit dépasse le seul cas d’Anthropic. Il soulève des enjeux fondamentaux pour toute le secteur de l’IA. Ainsi, 37 chercheurs et ingénieurs d’OpenAI et de Google, dont Jeff Dean, directeur scientifique de Google, ont déposé un mémoire d’amicus curiae en soutien à Anthropic. Selon eux, cette affaire pourrait décourager les experts de l’IA de débattre ouvertement des risques et bénéfices de leurs technologies.

The post Anthropic contre le Pentagone : une plainte à plusieurs milliards de dollars appeared first on Silicon.fr.

  •  

Google Workspace s’ouvre aux agents IA par la voie du CLI

L’ouverture de Google Workspace aux agents IA passe par la ligne de commande.

On a pu s’en convaincre ces derniers temps avec l’émergence de divers projets. Par exemple, gogcli et workspace-cli. Tous deux sont nés fin 2025. Ils donnent accès à l’essentiel des API de la suite, avec une conception pensée pour ces agents.

Leur avenir apparaît incertain désormais que Google a son propre outil : gws. En l’état, il n’en assure pas officiellement le support. Mais le code a été versé dans l’organisation GitHub dédiée à Google Workspace

Écrit en Rust comme workspace-cli, gws adapte lui aussi le format d’entrée aux agents IA, en privilégiant le JSON brut. Il fait de même avec les réponses API ; en intégrant notamment, pour limiter la consommation de tokens, de la pagination et des masques de champs.

L’ingénieur qui en est à l’origine insiste sur l’approche spécifique retenue pour la documentation API. Plutôt que de demander à un modèle de la rechercher en ligne ou de l’intégrer dans son prompt système, on lui présente, à la demande, des schémas JSON. Le document de découverte des API Google Workspace – sorte de catalogue dynamique qui décrit la surface des API et la manière de les utiliser – sert de source de vérité.

Une hiérarchie de skills… et une jonction avec OpenClaw

À l’instar de workspace-cli, gws permet le dry run (validation des requêtes en local) et le contrôle des réponses de l’API via Model Armor (service hébergé sur Google Cloud).

Un autre point commun fut la disponibilité d’un serveur MCP, mais cette option a fini par disparaître sur gws. Comme le multicompte (les agents pouvaient basculer en fonction du contexte).

Les instructions pour OpenClaw intégrées au README sont quant à elles restées. Le système de skills aussi. Il y en a une grosse centaine, déclinées sur quatre niveaux d’abstraction :

  • Services (le socle productivité de Google Workspace, mais aussi la gestion des identités, des licences, des groupes et des alertes, entre autres)
  • Opérations fréquentes (gws-mail-send, gws-drive-upload…)
  • « Recettes » (combinaisons d’opérations : audit de fichiers partagés sur Drive, envoi d’e-mails personnalisés sur la base d’une feuille de calcul…)
  • Personnalités (product manager, commercial, coordinateur événementiel, administrateur IT…)

Illustration générée par IA

The post Google Workspace s’ouvre aux agents IA par la voie du CLI appeared first on Silicon.fr.

  •  

Shadow AI : à phénomène ambiant, réponse multiforme

Et soudain, à l’été 2025, le shadow AI devint tendance sur Google.

À l’échelle mondiale, le volume de recherches a subitement crû, atteignant un pic vers la mi-août.

intérêt dans le monde shadow AI

La France a suivi le mouvement avec quelques semaines de décalage. Sur place la popularité du mot-clé est parvenue à son plus haut début 2026.

intérêt sur 1 an shadow AI

L’emballement avait démarré fin octobre, début novembre. ChatGPT allait avoir 3 ans (OpenAI l’a lancé le 30 novembre 2022). Un autre anniversaire approchait : celui de MCP, qu’Anthropic avait publié le 25 novembre 2024.

De l’un à l’autre, 2 ans, donc. Mais aussi un constat : le shadow AI n’a plus tout à fait le même visage. De l’usage clandestin de SaaS par des employés isolés, la notion en est venue à couvrir un éventail de workflows non maîtrisés, plus ou moins imbriqués. Et à s’affirmer comme un sous-ensemble bien spécifique du shadow IT, à l’aune du potentiel transversal des modèles d’IA à usage général.

Samsung et ChatGPT, un souvenir bien ancré

Les interfaces de chat en ligne furent pendant un temps le principal canal d’interaction avec ces modèles, qui tenaient le haut de l’affiche. Les SLM étaient alors peu présents dans le discours d’OpenAI et Cie, Mistral AI n’avait pas encore émergé et l’idée d’un « ChatGPT français » faisait son chemin, même si d’aucuns considéraient déjà qu’elle relevait du « vœu pieux ».

Sur ces interfaces, accessibles le plus souvent avec une simple adresse électronique, le risque le plus visible – et le plus immédiat – fut l’exfiltration de données au sein des prompts.

Guillaume Durand
Guillaume Durand – © DR

Le business model de ChatGPT public, c’est d’absorber les données qu’on lui transmet », rappelle Guillaume Durand, Chief Data Officer de LCL. L’intéressé n’a pas oublié ce qui est arrivé à Samsung : « Un salarié avait mis toute la stratégie [de l’entreprise] » dans ChatGPT, qui l’avait ensuite régurgitée, résume-t-il.

Mick Levy
Mick Lévy – © DR

Michael Lévy, directeur stratégie et innovation chez Orange Business, se souvient aussi du cas de Samsung, « qui avait retrouvé une partie de son code » dans ChatGPT.

Dans les faits, il y avait à la fois du code et des éléments de stratégie. Au moins 3 employés étaient impliqués. L’affaire remonte à 2023.

Face au shadow AI, savoir donner le change

Face à ce risque, une stratégie de défense prédominante fut le blocage d’URL au niveau du pare-feu. « La première chose qu’on a faite, c’est de bloquer ces outils », confirme Guillaume Durand. « Mais on sait que tout le monde a un téléphone… », tempère-t-il.

Sans parade technique absolue à l’usage de ChatGPT sur les appareils personnels, la réponse doit passer par de la sensibilisation. D’après Mick Lévy, on retrouve là « les mêmes débats qu’aux grandes heures du RGPD ». Mais pour lui comme pour Guillaume Durand, la démarche ne peut tenir sans fournir aux employés des outils alternatifs aussi efficaces.

Henri d'Agrain
Henri d’Agrain – © DR

Y parvenir nécessite de s’approprier le shadow AI. De « faire émerger [les usages], de les comprendre et des les orienter, déclare Henri d’Agrain. Et ainsi de reconstituer du collectif là ou l’IA générative, utilisée en solitaire, tend à le fragmenter », poursuit le délégué général du Cigref.

De la défiance… et du « bricolage »

L’association, qui fédère les DSI et responsables du numérique des grandes entreprises et administrations françaises, se réfère à un rapport que l’Inria a réalisé avec Datacraft. Un des sociologues de l’institut y assimile le shadow AI à un « bricolage pragmatique » porté tant par une recherche d’efficacité que de confort cognitif.

La variété des formes que ce bricolage peut prendre complique la détection des usages. Surtout que ceux-ci se développent rarement à visage découvert, en particulier par crainte d’être jugé ou de voir son expertise fragilisée. Ainsi le Cigref résume-t-il tout du moins les choses. Ce qui l’amène à prôner l’instauration d’un climat de confiance (« Tant que l’aveu de l’usage sera perçu comme une faute, le shadow AI prospérera ».)

En 2021, avant la vague GenAI, le Partenariat mondial sur l’IA avait pointé un autre aspect favorable au développement de pratiques hors des cadres de gouvernance. En l’occurrence, l’irritation liée à la suppression ou à la transformation de gestes professionnels emblématiques. Ainsi qu’à la création de nouvelles tâches peu valorisées. Il avait aussi alerté sur la réalité de systèmes d’IA parfois « utiles mais non utilisables » ou l’inverse.

Les effets secondaires d’une « transformation silencieuse »

La même année, l’Inria avait monté, avec le ministère du Travail, le LaborIA. Ce laboratoire d’étude des effets sociétaux de l’intelligence artificielle allait, en 2024, mettre en lumière le fait que les systèmes mis en place se rapportaient trop au travail prescrit ; pas assez au travail réel. Les salariés tendaient par là même à remettre en cause l’idée que l’IA enrichissait automatiquement leur valeur.

Nombre d’analyses y ont fait écho. Illustration du côté de la RAND Corporation. Ce think tank que finance le gouvernement américain a souligné le risque d’une mauvaise communication sur les objectifs à atteindre. Et de là, d’une optimisation de métriques inadaptées ou d’un ancrage inapproprié dans les processus métiers.

En parallèle, une étude émanant de l’université libre d’Amsterdam a révélé des effets secondaires de la « transformation silencieuse » qu’induit le shadow AI. Parmi eux, la diminution des échanges entre collègues. Et ainsi, un affaiblissement de la circulation des savoirs tacites et de l’apprentissage collectif. S’y ajoute la difficulté à mesurer la qualité des contenus générés, avec toutes les erreurs que cela peut engendrer. De surcroît, l’évaluation des contributions et de la montée en compétences devient plus complexe.

MCP, incarnation du champ des possibles

D’autres seuils ont été franchis à mesure que les logiciels se sont mis à embarquer de l’IA générative. Parfois en l’activant par défaut, sans toujours en exposer le fonctionnement voire l’existence. Les principaux fournisseurs de modèles ayant ouvert des API publiques – plus lucratives que les abonnements mensuels -, les points d’intégration se sont multipliés. La surface d’attaque s’est par conséquent élargie… et surtout diversifiée. Des datasets privés aux couches d’orchestration, pour chaque modèle déployé, les entreprises introduisent deux ou trois composants supplémentaires, affirme Snyk. Des composants qui proviennent pour l’essentiel de packages externes sur lesquels le contrôle peut être limité.

En matière de ressources externes dont la gestion peut s’avérer délicate, MCP est un emblème. Quoique devenu standard de facto, le protocole est jeune. La communauté travaille, entre autres, sur un répertoire public de serveurs de confiance. Il est actuellement en preview. En attendant, la vigilance est de mise face aux tentatives d’usurpation des serveurs (typosquatting, confusion de dépendances…), une commande pouvant théoriquement suffire à en installer un.

L’usurpation peut également cibler les IA, en jouant sur le nom des outils qui leur sont présentés. Au rang des risques encourus, l’injection, jusqu’au niveau du prompt système, d’instructions poussant à effectuer des actions malveillantes. Ou l’empoisonnement de la mémoire des modèles.

D’autres portes s’ouvrent avec l’option qui permet d’exécuter un serveur MCP sur la même machine que le client. C’est sans compter les endpoints éventuellement dotés de trop de permissions. Un enjeu qui a pris de l’importance avec l’avènement des applications MCP interactives.

Des passerelles IA à l’AISPM, entre vent nouveau et appel d’air

MCP symbolise ce « champ des possibles » autour duquel quantité d’acteurs de la cyber sont venus se positionner. L’appel d’air est d’autant plus fort que des plug-in SaaS aux extensions de navigateur, une partie du shadow AI ne touche pas le réseau corporate. Pour les outils de sécurité qui agissent à ce niveau, c’est un potentiel angle mort. Ou au minimum une contrainte. Dans cette catégorie, on trouve du DLP. Mais aussi des firewalls, où le recours à l’inspection TLS est parfois possible, mais ajoute une surcharge.

Dans ce contexte, les proxys ont évolué en AI gateways, dans la lignée des passerelles API, avec la promesse d’une visibilité sur ce qui se passe dans les applications. Et donc une aptitude à filtrer les prompts, à détecter les injections, à masquer les données sensibles, etc.

Quelques-uns des principaux fournisseurs de sécurité réseau ont pris ce virage à renfort de croissance externe. Palo Alto Networks s’est emparé de Protect AI ; Cato Networks, d’Aim Security ; Proofpoint, d’Acuvity. Des acquisitions généralement venues consolider des offres SASE, sous la bannière AISPM (gestion continue de la posture de sécurité de l’IA). Une approche qui peut tout à fait venir renforcer un socle DSPM (data security posture management) ayant au préalable permis de cartographier les données.

Bataille pour la protection des navigateurs

Avec son navigateur d’entreprise, Seraphic s’était aussi positionné sur la protection contre les menaces liées à l’usage de l’IA. Il a fini chez Crowdstrike. Son produit le dispute à des intégrations natives (Defender for Cloud dans Edge, par exemple). Et à une myriade d’extensions (LayerX, MagicMirror, Push Security…) qui promettent pareillement un contrôle sur les flux IA échappant au réseau interne.

Les EDR ont aussi leurs extensions de navigateur. Mais leur apport à la protection contre le shadow AI se trouve plutôt dans l’analyse de l’exécution locale des LLM (runtimes, extensions IDE…).

Les solutions de gestion du SaaS (Corma, CloudEagle, Torii…) et de l’expérience employé numérique (Nextthink, ControlUp, Riverbed…) ont également investi le créneau. Les uns et les autres promettent avant tout d’aider à cartographier le shadow AI. Et à attribuer des responsabilités, une tâche que l’usage massif de données non structurées complique.

Le BYOK, levier parmi d’autres pour trouver le juste milieu

Stéphane Roder
Stéphane Roder – © DR

Au-delà de la mise en œuvre technologique, l’attribution des rôles et des responsabilités relève de la mesure organisationnelle. La formation des collaborateurs aussi. Stéphane Roder, président d’AI Builders, invite à y associer une certification : « Il faut un niveau minimum, sinon [ce sera du] temps passé à vérifier [par après] ».

Du temps, on peut également en passer sur le cadrage avec les fournisseurs, en contractualisant des garanties, notamment d’ordre juridique. Puis en balisant des chemins vers les produits couverts. Comme, dans le cas d’une API, en autorisant le BYOK (bring your own key).

Les contrats de travail sont un autre levier, par l’intermédiaire de clauses interdisant par exemple d’approuver des accords de licence ou des conditions d’utilisation non validés au préalable. En gardant à l’esprit qu’il s’agit d’éviter une trop grande frustration des utilisateurs. Chez AXA France, la quête du juste milieu a donné naissance au concept de « décentralisation gouvernée »…

Illustration principale générée par IA

The post Shadow AI : à phénomène ambiant, réponse multiforme appeared first on Silicon.fr.

  •  

AMI Labs lève 1 milliard $ pour développer ses « world models »

C’est l’annonce que l’écosystème des éditeurs de modèles IA attendait depuis que Yann LeCun avait annoncé son départ de Meta et son intention de développer Advanced Machine Intelligence (AMI) Labs.

Restaient les questions en suspens : Avec qui ?  Avec quels fonds ? Quand ?

L’ex directeur de Facebook AI Research (FAIR) a levé le voile ce 10 mars en annonçant une levée de fonds de 1,03 milliard $ (environ 890 millions €) en amorçage, pour une valorisation pré-money de 3,5 milliards $. Un record en Europe pour un tour d’amorçage, dépassé seulement par l’américaine Thinking Machines Lab, fondée par Mira Murati, ancienne directrice technique d’OpenAI., qui avait levé 2 milliards $ en juin 2025.

Une équipe de chercheurs issus de Meta

On connait aussi désormais l’équipe qui va développer le business d’AMI Labs : ils sont six co-fondateurs, tous  anciens de Meta. Alexandre Lebrun, ancien CEO de la start-up de santé Nabla (rachetée par Meta en 2015 sous le nom Wit.ai), prend la tête d’AMI Labs en tant que directeur général, tandis que Yann LeCun en préside le conseil d’administration.

Laurent Solly, ex patron de Meta pour l’Europe, assure le rôle de directeur des opérations. A ses côtés, Pascale Fung est directrice de la recherche et de l’innovation, Saining Xie est directeur scientifique, et Michael Rabbat est responsable des « représentations du monde ».

AMI Labs compterait aujourd’hui une dizaine de salariés et vise 30 à 50 personnes d’ici six mois, répartis entre son siège social de Paris et ses bureaux de New York, Montréal et Singapour.

Les « world models » contre les LLM

Au cœur du projet d’AMI Labs : une rupture revendiquée avec les grands modèles de langage (LLM) comme ChatGPT, Claude ou Gemini. Pour Yann LeCun, ces systèmes entraînés principalement sur du texte ne pourront jamais atteindre le niveau de raisonnement d’un humain, ni même celui d’un enfant de 6 ans ou d’un chat. « L’architecture générative entraînée par l’apprentissage auto-supervisé imite l’intelligence ; Ils ne comprennent pas vraiment le monde », résume Alexandre Lebrun.

L’alternative que développe AMI Labs s’appelle « world models » (modèles du monde) : des architectures d’IA capables de se représenter l’environnement physique de manière abstraite et conceptuelle, de mémoriser des informations et de planifier des séquences d’actions complexes  comme anticiper qu’un objet tombera s’il arrive au bord d’une table.

AMI Labs s’appuiera sur les travaux conduits par Yann LeCun chez Meta autour de l’architecture JEPA (Joint Embedding Predictive Architecture), entraînée sur des vidéos et des données spatiales plutôt que sur du texte.

Des ambitions industrielles et robotiques

AMI se positionne d’abord comme un projet de recherche fondamentale, mais avec des débouchés commerciaux clairement identifiés : fabricants, constructeurs automobiles, entreprises aérospatiales, acteurs du biomédical et de la pharmacie. « Nous voulons devenir le principal fournisseur de systèmes intelligents, quelle que soit l’application », a déclaré Yann LeCun à Reuters.

La robotique constitue l’une des applications prioritaires. « Pourquoi aujourd’hui, on a des systèmes qui passent l’examen du barreau, qui démontent des théorèmes, qui écrivent du code, mais on n’a toujours pas de robots domestiques ou de voitures qui se conduisent toutes seules ? »  » insistait-il sur France Inter.

Il envisage également des usages grand public avec le déploiement de cette technologie dans ses lunettes connectées Ray-Ban Meta. « C’est probablement l’une des applications potentielles à court terme » a-t-il annoncé à Reuters.

AMI Labs  va proposer ses modèles sous deux formes : un accès via API (modèle payant à la requête) et une version téléchargeable, potentiellement en open source. Un atout différenciateur, notamment pour recruter des profils de recherche de haut niveau.

Un tour de table mondial, un ancrage européen

Initialement ciblé à 500 millions $,la demande des investisseurs a largement dépassé les attentes. Le tour a été co-dirigé par Cathay Innovation, Greycroft, Hiro Capital, HV Capital et Bezos Expeditions (le fonds de Jeff Bezos). Nvidia, habitué des investissements dans les start-up d’IA, figure également parmi les participants, aux côtés du fonds singapourien Temasek, de SBVA (SoftBank), de Toyota Ventures et de Samsung.

Côté européen et français, on retrouve Daphni, Bpifrance, le Groupe industriel Marcel Dassault, l’Association Familiale Mulliez, Aglaé Ventures (LVMH), Zebox Ventures (CMA CGM) et Xavier Niel, à titre personnel.

« Il y a des investisseurs très diversifiés avec un peu plus du tiers qui sont européens, une grande partie de Français, un peu moins du tiers viennent d’Asie et du Moyen-Orient, et à peu près un tiers sont américains. Quand une entreprise dépasse une valorisation d’un milliard, on appelle ça une licorne, nous, on dépasse les trois milliards, donc on est un tricératops » se rejouit Yann LeCunil.

Le premier partenaire stratégique d’AMI Labs sera Nabla, la start-up d’IA pour la santé cofondée par Alex Lebrun, qui gardera en parallèle un rôle de directeur scientifique dans cette société. Une façon de tester dès le départ les modèles du monde sur des données réelles dans un secteur à fort enjeu.

Illustration : © DR AMI Labs

The post AMI Labs lève 1 milliard $ pour développer ses « world models » appeared first on Silicon.fr.

  •  

Comment Icade a fait de son IT un moteur stratégique

Le tournant est net. Depuis le 1er juillet 2024, la Direction de l’Information et des Systèmes Numériques (DISN) d‘Icade n’est plus cantonnée à un rôle de support. Désormais rattachée directement à la Direction Générale et représentée au Comex, elle est devenue un « levier de transformation du groupe », selon les termes d’Alexis de Nervaux, son nouveau Directeur des systèmes d’information et de la transformation digitale. L’objectif déclaré est de faire d’Icade le « pionnier de l’IA dans le secteur de l’immobilier ».

Deux vitesses pour l’IA

La feuille de route s’articule autour d’une distinction claire entre deux types d’usages. D’un côté, une « IA pour tous », à vocation bureautique, destinée à l’ensemble des collaborateurs pour simplifier leur quotidien. De l’autre, une « IA cœur de métier », orientée vers les activités spécifiques de foncière et de promotion immobilière.

L’approche revendiquée est résolument pragmatique. « Notre stratégie est basée sur des cas d’usage. Le point de départ est ce que l’on appelle des business opportunities », explique Alexis de Nervaux.

Delos : le choix de la souveraineté

Pour le volet bureautique, Icade a retenu Delos, une solution française hébergée en France. Un choix qui traduit une volonté assumée de « jouer la carte de la souveraineté ». La plateforme, déployée en mode SaaS, présente la particularité d’être multi-LLM : en fonction du prompt soumis, elle peut solliciter Mistral, ChatGPT ou d’autres modèles. « Cela permet d’offrir à nos utilisateurs finaux le meilleur des deux mondes », souligne le Directeur des systèmes d’information et de la transformation digitale.

Intégrée aux outils du quotidien – Teams et Outlook notamment – , la solution fonctionne comme un « copilote » capable de résumer des réunions ou de trier des courriels, sans alourdir l’infrastructure interne.

Des cas d’usage concrets sur les métiers

Sur le plan opérationnel, plusieurs déploiements sont déjà en cours. Pour la promotion, Icade s’appuie sur Lokimo, une start-up accompagnée par Icade à travers son start-up studio Urban Odyssey, et qui permet de sourcer le foncier et d’identifier le potentiel à l’échelle nationale selon des critères précis.

Pour la foncière, le groupe a développé une solution de Gestion Électronique de Documents (GED) intelligente, capable d’analyser et de synthétiser des millions de documents liés aux actifs immobiliers. Alexis de Nervaux en souligne la valeur concrète, notamment dans l’accélération de la constitution des dossiers par actif : « Cette solution nous permet de synthétiser et valoriser l’ensemble des données que nous possédons sur un actif par exemple. C’est un véritable gain de productivité et de temps pour les équipes.».

La data et le cloud comme prérequis

Pour soutenir ces ambitions, Icade a recruté un Chief Data Officer en avril dernier et lancé un projet de Data Plateforme destiné à améliorer la qualité et à décloisonner la donnée. Pour le Directeur des systèmes d’information et de la transformation digitale, le message est sans appel : « Il n’y a pas d’IA sans data. L’IA n’est pas une potion magique qui va transformer votre data de mauvaise qualité en or ».

En parallèle, le groupe applique une stratégie « Cloud-first et SaaS-first » via un projet de migration « Move to Cloud ». La logique est celle de la délégation aux spécialistes : « Nous serons toujours moins bon qu’un « pure player » comme Amazon, Azure ou OVH. Nous n’avons donc aucun intérêt, à mon sens à gérer cela en interne ».

La formation, clé de l’adoption

La dimension humaine occupe une place centrale dans la démarche. Icade s’est associé à Mister IA pour proposer des formations concrètes à ses collaborateurs. Alexis de Nervaux est catégorique sur le sujet : « Le succès d’une formation, est l’appropriation des outils par les collaborateurs, qu’ils en ressortent avec un savoir-faire pratique, créateur de valeur, qui puisse être mis en place immédiatement. »

Sécurité et agilité : un équilibre revendiqué

Fort d’une expérience directe d’une cyberattaque d’envergure, le CDIO n’ignore pas les enjeux de cybersécurité. Mais il refuse d’en faire un frein à l’innovation : « On ne peut pas se permettre de bâtir une forteresse sans que celle-ci soit intégrée à une stratégie plus globale. Le temps que l’on y parvienne on est déjà en retard ». La stratégie d’Icade entend donc concilier rigueur opérationnelle en matière de sécurité et agilité dans la transformation des processus métiers.

Photo : Alexis de Nervaux © DR

The post Comment Icade a fait de son IT un moteur stratégique appeared first on Silicon.fr.

  •  

Ce que l’on sait de Microsoft 365 E7 à 99 $ par mois

Microsoft  franchit un nouveau cap, le 1er mai prochain, dans la monétisation de l’intelligence artificielle avec l’arrivée d’une offre Microsoft 365 E7 tarifée 99 $ par utilisateur et par mois. Destinée aux grandes entreprises, cette nouvelle formule se place au‑dessus de l’actuel E5 et ambitionne de devenir le « bundled » ultime pour les entreprises qui veulent industrialiser l’usage de l’IA dans leurs workflows.

Un palier au‑dessus d’E5, centré sur Copilot et Agent 365

Microsoft 365 E7 reprend l’intégralité des fonctionnalités du bundle E5, en y ajoutant l’ensemble des briques d’IA que Microsoft commercialise aujourd’hui à la carte. Au cœur de l’offre : l’assistant Microsoft Copilot et un nouveau hub de gestion d’agents d’IA baptisé Agent 365, pensé pour orchestrer, superviser et gouverner des agents spécialisés à l’échelle de l’entreprise.

Concrètement, E7 se présente comme une suite « AI‑first » : plutôt que d’ajouter Copilot comme simple add‑on à un abonnement existant, Microsoft intègre nativement ces capacités dans le bundle, avec des fonctions avancées de sécurité, d’identité et de management déjà présentes dans E5. L’objectif est double : simplifier le portefeuille de licences pour les clients qui ont déjà adopté Copilot, et inciter les autres à franchir le pas en regroupant l’ensemble dans un seul contrat.

Microsoft 365 E7 : 99 $ par utilisateur

Avec un prix cible de 99 $ par utilisateur et par mois, E7 marque une hausse significative par rapport à E5, actuellement à 57 $ et annoncé à 60 $ à partir du 1er juillet 2026. Si l’on additionne aujourd’hui E5 et les options IA comme Copilot vendues séparément, le total se rapproche déjà de ce niveau de prix ; l’enjeu pour Microsoft est donc de transformer ces lignes de revenus additionnelles en un palier premium clairement identifié.

En toile de fond, se trouve la nécessité pour Microsoft de rentabiliser les dizaines de milliards de dollars investis dans l’infrastructure IA (centres de données, GPU, supercalculateurs). Un tarif à 99 $ par utilisateur, couplé à un éventuel modèle hybride combinant prix par siège et facturation à la consommation des ressources IA, permettrait de rapprocher davantage Microsoft 365 des logiques économiques déjà en place sur Azure.

Une stratégie de timing pour faire monter les clients en gamme

La fenêtre de lancement envisagée n’est pas anodine. Microsoft a déjà annoncé une augmentation globale des tarifs de Microsoft 365 à l’horizon juillet 2026, avec une hausse notamment pour les plans E3 et E5. En introduisant E7 au moment où les prix des offres existantes montent, l’éditeur espère orienter une partie des clients vers ce nouveau palier plutôt que de les voir se contenter de plans intermédiaires.

Microsoft indique ainsi que « Microsoft 365 E7 unifie Microsoft 365 E5, Microsoft 365 Copilot et Agent 365 en une solution unique optimisée par Work IQ et intégrée aux applications et à la pile de sécurité auxquelles les clients font déjà confiance. Elle comprend Microsoft Entra Suite et les fonctionnalités de sécurité avancées Defender, Intune et Purview, offrant une protection complète aux agents et aux employés.»

L’objectif est de capter les budgets des grands comptes qui veulent structurer l’usage de l’IA tout en renforçant leurs capacités de sécurité, conformité et gestion des identités.

Quels enjeux pour les DSI et les équipes achats ?

Pour les directions informatiques, E7 ouvre autant de possibilités que de questions. La promesse est séduisante : une suite unifiée, intégrant productivité, sécurité et IA, avec Copilot et Agent 365 comme colonne vertébrale des usages intelligents. Mais à 99 $ par utilisateur, l’adoption à grande échelle suppose une analyse fine du retour sur investissement : gains de productivité, automatisation de processus, réduction des coûts liés à la gestion multi‑licences, ou encore rationalisation des outils tiers.

The post Ce que l’on sait de Microsoft 365 E7 à 99 $ par mois appeared first on Silicon.fr.

  •  

« More agents is all you need »… ou pas : une esquisse de lois d’échelle pour l’IA agentique

« More agents is all you need. »

En octobre 2024, le labo IA de Tencent avait publié un article ainsi intitulé. Il y présentait une méthode permettant d’accroître la performance d’un LLM en augmentant le nombre d’agents instanciés.

La technique, dite « forêt d’agents », est simple dans son principe : envoyer une requête à plusieurs agents (instances d’un LLM) et les faire voter à la majorité sur les outputs.

forêt agents
Un « agent LLM » peut aussi bien être un LLM seul qu’un groupe d’agents.

Google Research y fait référence dans un autre article… qui en prend partiellement le contrepied. Il y propose des principes de mise à l’échelle des systèmes agentiques.

3 familles de LLM, 4 benchmarks, 5 architectures

Ces principes découlent de l’analyse de 180 configurations. En l’occurrence, 5 architectures agentiques appliquées à 3 familles de modèles et testées sur 4 benchmarks.

Les architectures en question :

  • Mono-agent
  • Agents indépendants (aucune communication entre eux)
  • Centralisé (plusieurs agents, chacun communiquant avec un orchestrateur)
  • Décentralisé (communication entre pairs)
  • Hybride (orchestrateur + P2P limité)

L’orchestrateur détermine la manière dont sont agrégés les outputs des agents et s’il a le droit de passer outre. Il gère aussi la mémoire.

architectures agents

Ces architectures ont été appliquées à des modèles d’Anthropic (Claude Sonnet 3.7, 4.0 et 4.5), de Google (Gemini 2.0 Flash, 2.5 Flash et 2.5 Pro) et d’OpenAI (GPT-5, 5 mini et 5 nano).

Les benchmarks étaient les suivants :

  • Finance Agent (2025 ; analyse financière sur dépôts SEC)
  • BrowseComp-Plus (2025 ; « recherche approfondie » sur le web)
  • Plancraft (2024 ; planification en environnement Minecraft)
  • WorkBench (2024 ; exécution de tâches en environnement de bureau)

Les tests se sont faits à paramètres fixes (outils, prompts, budgets de calcul). En sont ressorties 8 métriques, le taux de réussite étant la principale.

métriques coordination

À partir de ces métriques, ainsi que de trois autres indicateurs (propriétés des tâches, nombre d’agents, capacités de modèles de base), Google Research a élaboré un modèle prédictif. Son rôle : identifier l’architecture optimale pour une tâche donnée.

Ce n’est pas (vraiment) le nombre qui compte

Là semble effectivement résider le véritable enjeu. Si on en croit les résultats communiqués, ce n’est pas tant le nombre d’agents qui importe que l’adéquation entre la tâche et l’architecture agentique.

La complexité des tâches joue moins que la capacité à les décomposer. Les résultats sur Finance Agent et Plancraft en témoignent.

Fait d’informations statiques et structurées, Finance Agent se prête à une division du travail. Toutes les architectures multi-agents apportent effectivement un gain important par rapport au mono-agent.

Plancraft est, au contraire, intrinsèquement séquentiel (chaque action modifie potentiellement l’environnement). Le multi-agent y est systématiquement moins efficace que le mono-agent. Diviser le travail implique que chaque agent synchronise l’état du système. Dans un tel environnement dynamique, cela impacte significativement le budget de calcul disponible. Les agents compressent alors d’autant plus les informations qu’ils (se) transmettent, au risque de perdre de l’information.

résultats
Les taux en rouge et en vert s’entendent par rapport au résultat en mono-agent. Les boîtes représentent l’intervalle des taux de réussite ; les diamants, la performance moyenne.

Sur WorkBench, la différence est plus marginale. Idem sur BrowserComp-Plus, où l’approche décentralisée, adaptée à l’exploration parallèle de pages web (espaces de recherche à forte entropie), affiche le meilleur score de précision.

Google perçoit un modèle généralisable

La surcharge liée à la coordination des agents pèse démesurément sur les tâches qui impliquent beaucoup d’outils. L’étude ne révèle pas, en revanche, de corrélation entre l’augmentation de cette surcharge et celle de la complexité des tâches. À performance équivalente, le multi-agent consomme bien plus de tokens que le mono-agent (+ 58 % en mode « indépendant », + 263 % en décentralisé, + 285 % en centralisé, + 515 % en hybride.

Dès qu’un agent seul dépasse les 45 % de taux de réussite, en ajouter a des effets négatifs. Quant à la redondance des tâches (en confier une à plusieurs agents), elle n’a, à l’échelle, qu’un bénéfice marginal.

La présence ou l’absence de points de validation engendre une grande différence dans l’amplification des erreurs. En centralisé, elles sont multipliées par 4,4 par rapport au mono-agent ; en décentralisé, par 7,8 ; en hybride, par 5,1 ; en indépendant, par 17,2.

Les architectures centralisée et décentralisée tendent à réduire le taux moyen d’erreurs par rapport au mono-agent. Notamment pour ce qui est de l’omission de contexte. Et, dans une moindre mesure, les contradictions de logique. C’est n’est pas toujours le cas pour les architectures hybrides, avec lesquels ce taux s’accroît même parfois. En particulier sur les dérives numériques (découlant d’arrondis ou de mauvaises conversions en cascade).

La hiérarchie des architectures est relativement stable entre domaines. Google Research y voit la preuve que son modèle est généralisable. Sur labase de ses expérimentations, il affirme qu’à budget constant, au-delà de 3 ou 4 agents, la qualité de raisonnement de chacun se dégrade.

Illustration principale générée par IA

The post « More agents is all you need »… ou pas : une esquisse de lois d’échelle pour l’IA agentique appeared first on Silicon.fr.

  •  

Michel Paulin, CSF Logiciels et Numérique de Confiance – « 5 % de commandes en plus, c’est 10 % de croissance pour la filière »


83 %. C’est la part de marché des éditeurs américains dans le cloud et le SaaS en Europe. Un chiffre vertigineux, qui résume à lui seul l’ampleur de la dépendance technologique dans laquelle se trouve la France et l’ensemble du continent européen.

Pourtant, des alternatives existent. Des entreprises françaises innovent, recrutent, exportent. Alors pourquoi l’État lui-même continue-t-il d’acheter massivement américain, au mépris des doctrines qu’il a lui-même édictées ? Pourquoi ce décalage persistant entre les discours sur la souveraineté numérique et la réalité des contrats signés ?

C’est à ces questions que répond Michel Paulin, président du Comité Stratégique de Filière Logiciel et Solutions Numériques de Confiance, dans un entretien sans détour à Silicon.

Sa conviction : inutile d’attendre une grande loi ou un plan de subventions supplémentaire. Rediriger seulement 5 % de la commande vers l’écosystème national suffirait à créer 10 000 emplois et à rapatrier un milliard d’euros dans les caisses de l’État.

—————————

Extrait de l’interview d Michel Paulin, Président du Comité Stratégique de Filière Logiciels et Solutions Numériques de Confiance.

Silicon – Quelle est la genèse du Comité Stratégique de Filière logiciel et solutions numériques de confiance, officiellement lancé en avril 2025 ?
Michel Paulin – Il n’y avait pas de filière dans le domaine. En septembre 2022, le ministre de l’industrie et des finances de l’époque ( Bruno Le Maire, NDLR) a annoncé la création d’une filière et m’a demandé de faire le précadrage. De septembre 2022 à avril 2025, nous avons consulté près de 600 à 800 entreprises qui ont répondu à des questionnaires et à des sollicitations. On a discuté avec l’État pour définir un contrat de filière qui a été signé en avril 2025. L’objectif de ce contrat, c’est très simple : définir quelles sont les mesures que l’on peut prendre avec l’ensemble des parties prenantes, clients, État, collectivités locales, mais aussi activités périphériques, pour faire en sorte que la filière française puisse grossir, grandir, se développer.

Quel est son périmètre ?
Michel Paulin – Ce périmètre a été décidé par l’État. Il couvre quatre domaines : éditeur de logiciels, domaine du cloud, domaine du quantique, et l’intelligence artificielle en tant que producteur, éditeur de modèles, éditeur d’agents ou de solutions de cette nature.

«La filière se porte bien mais elle fait face à des défis énormes »

Comment se porte cette filière aujourd’hui ?
Michel Paulin – C’est une filière qui va plutôt bien : 25 milliards € de chiffre d’affaires, une croissance souvent très proche des deux chiffres sur ces 5-6 dernières années, et environ 10 000 emplois nets créés chaque année pour plus de 100 000 personnes employées. Quand on se compare à d’autres filières industrielles qui souffrent aujourd’hui en France et en Europe, c’est une filière qui se tient bien. En revanche, il faut mettre les pieds sur la table : elle est face à des défis énormes.

Le premier défi, c’est la taille. Une dizaine d’entreprises aux États-Unis sont à elles seules plus grandes que toute la filière française. Il n’y a que 4 sociétés en France qui dépassent le milliard de chiffre d’affaires, Dassault Systèmes, OVHcloud et quelques pépites de quelques centaines de millions. Mistral espère peut-être dépasser le milliard.

Le deuxième défi, c’est l’accès aux fonds propres. Pour investir en R&D, dans l’IA, les infrastructures, l’innovation, il faut de gros fonds propres. Rester dans le giron européen avec des levées supérieures à 100, 200 ou 300 millions, c’est difficile. Dans le quantique, les trois dernières levées américaines vont de 600 millions à un milliard de dollars, principalement par des fonds anglo-saxons. Lever un milliard en restant européen aujourd’hui, c’est impossible.

Le troisième défi, c’est les compétences. On ne forme pas assez d’ingénieurs, on n’attire pas assez de femmes dans la filière. Aujourd’hui, 22 % des postes techniques sont occupés par des femmes, contre 40 % en Inde ou au Maroc. Ça commence à l’école primaire : il faut mettre en avant la science pour former plus de monde.

« Dire « il n’y a pas d’offre « est une insulte à la
filière »

Face aux menaces de Donald Trump et la fin des « cadeaux aux alliés », faut-il porter les trois dossiers en même temps ou prioriser le financement et la commande publique ?Michel Paulin -Dans le cadre du contrat de filière, on a défini cinq priorités : l’offre, la commande, l’innovation, la formation, et la protection des données sensibles. Et aussi, parce que le marché est mondial, comment aider les entreprises françaises à exporter et à aller à l’international.

La raison principale du retard par rapport aux filières coréenne, israélienne ou canadienne, c’est la commande publique et la commande privée, qui est le driver essentiel. Les parts de marché de l’État dans le software acheté auprès de la filière française sont très faibles ; dans certains domaines, on est quasiment à 5 ou 10 %. Je salue l’initiative du gouvernement qui dit qu’il faut réfléchir vers les filières nationales, parce que la situation est catastrophique.

Comment expliquer ce décalage entre la capacité de production de l’écosystème français et la réalité de la commande publique ? Les administrations sont-elles en décalage par rapport aux doctrines de l’État ?
Michel Paulin – Il y a beaucoup de facteurs. Et je ne devrais pas réserver ça uniquement à la commande publique : il faut aussi mettre les grands groupes face à leurs responsabilités. On ne peut pas parler de risque de vassalisation sans agir. On a vu récemment qu’on a coupé les services bancaires d’un juge français aux États-Unis ; ce n’est plus de la science-fiction, c’est une réalité.

Dans le cloud et le SaaS, les éditeurs américains ont 83 % de parts de marché en Europe, c’est un excellent rapport du Cigref qui l’indique. Les acheteurs ont parfois le « syndrome IBM » des années 80 : on choisit le dominant par habitude pour ne pas prendre de risques. En Europe, on est très forts pour ne pas avoir de préférence, on n’a pas de  » American Buy Act « . Les critères qui favorisent le produit local ont longtemps été tabous.

Il y a aussi des acteurs dominants qui abusent de leur position : la Cour des comptes et les autorités de la concurrence le disent. Une dizaine d’instructions sont en cours sur des pratiques de cloud qui augmentent les tarifs sans justification : 5 à 10 % de hausse par an, et une verticalisation des solutions pour lier encore plus les clients à leur logique.

« Une stratégie multi-cloud pourrait très bien consister à choisir un opérateur américain et un opérateur français ou européen.»

Patrick Pouyanné, PDG de TotalEnergies, a déclaré qu’il aimerait acheter français ou européen, mais qu’il n’y a pas d’offre. Que lui répondez-vous ?
Michel Paulin – Ce narratif construit par ceux qui veulent garder le monopole de fait est très puissant. Dire « il n’y a pas d’offre » est une insulte à la filière. Est-ce qu’on a des ingénieurs qui ne sont pas capables de faire des produits ? Est-ce que Mistral n’est pas au niveau ? Dans tous les domaines, il y a des alternatives. Faisons-leur confiance.

Quand on fait une stratégie multi-cloud avec trois acteurs américains, ça correspond à quoi ? Une dépendance totale, technologique, financière et légale. Une stratégie multi-cloud pourrait très bien consister à choisir un opérateur américain et un opérateur français ou européen sur les domaines où ils sont bons. Ces opérateurs font quand même de l’ordre du milliard, ce ne sont pas des boîtes en dehors des clous.

Sur la virtualisation, il y a eu le scandale VMware-Broadcom, qui impose à ses clients des augmentations de prix fois trois, fois cinq. Il existe des alternatives en Europe : Proxmox côté allemand, Vates en France. Quand vous êtes face au renouvellement d’une licence avec une multiplication par trois ou quatre du tarif, pourquoi ne pas tester ?

Dans la cyber, une société me disait que dans un appel d’offre sur deux, ils ne sont même pas interrogés. Quand on dit « il n’y a pas d’alternative », faisons des appels d’offres et donnons la chance à tout le monde. Le Health Data Hub : pas d’appel d’offre. Le ministère de la Santé disait « les acteurs ne répondent pas aux besoins ». Quel est le cahier des charges ? Quel est l’appel d’offre ? Il n’y en a pas. C’est un narratif non factuel, construit pour justifier que l’on ne sollicite même pas ces offres. Elles existent, faisons-leur confiance.

« Pour le « Cloud au Centre » : on annonce la doctrine, et puis on ne fait que des exceptions.»

Comment expliquer que des directives politiques comme « Cloud au Centre »  ne soient pas suivies d’effet par les administrations, voire par l’Assemblée nationale elle-même ?

Michel Paulin – Moi je ne peux pas l’expliquer. C’est une question à poser aux décideurs publics. Une des demandes que nous avons, c’est : au lieu de rajouter des régulations, en Europe on adore en rajouter, appliquons avec courage et rigueur celles qui existent. Le DMA : qu’est-ce qu’on commence par faire ? Des exceptions. Le cloud a même été exclu du DMA.
Pour le « Cloud au Centre » : on annonce la doctrine, et puis on ne fait que des exceptions. Ça ne sert à rien de faire une doctrine si on ne l’applique pas.

Le RGPD ne devrait pas accepter des exceptions non plus. Mais le RGPD est compliqué parce que ces acteurs sont pilotés depuis l’Irlande, et l’Irlande n’est pas très zélée pour faire respecter le droit européen sur la protection des données. Il y a des biais et des cas de RGPD enfreints.

Il faut avoir le courage de dire : arrêtons de rajouter des réglementations, des certifications, des labels dans tous les sens ; il y en a trop. En revanche, concentrons-nous pour faire respecter celles qui existent. De même, plutôt que de subventionner dans tous les sens, subventionnons l’innovation et achetons européen. Sur les domaines de l’IA, des infrastructures, du quantique, de la recherche fondamentale, du hardware avec les nouveaux modèles de GPU.
Oui il faut aider à l’innovation avec un partenariat public-privé fort entre le CEA, l’INRIA et le CNRS. Mais le principal levier, c’est la commande, parce que c’est ce qui fait grossir la filière et c’est la seule garantie d’une souveraineté.

Y a-t-il des engagements concrets ? Faut-il passer par la loi, des obligations dans les appels d’offres, un fléchage contraignant ? Êtes-vous optimiste ?
Michel Paulin – Je rêverais d’une loi qui permette de résoudre tous ces problèmes. Mais la préférence européenne d’achat est aujourd’hui interdite par la loi européenne : on n’a pas le droit de le faire. Alors que les Américains le font, les Chinois le font, les Coréens le font. On est les seuls à croire que c’est une distorsion de la concurrence. C’est incroyable.

Cela dit, il ne faut pas tomber dans l’attentisme en attendant la prochaine loi. Il y a plein de choses à faire concrètement dès maintenant. Je donne un chiffre : 83 % du SaaS et du cloud sont monopolisés par quelques acteurs. Si on fléchait 5 % de ces commandes vers la filière, ce n’est pas un choc systémique mais c’est 10 % de croissance pour la filière française, 10 000 emplois créés, et 1 milliard de taxes et cotisations sociales qui reviennent dans les caisses de l’État au lieu de partir en évasion fiscale légale en Irlande ou aux États-Unis.

Et l’enjeu géopolitique est réel. Les Américains ont voulu taxer les Chinois. Les Chinois ont regardé tout le stack et ont dit : « les terres rares, on ne vous les donne plus ». Comme par hasard, les taxes ont disparu. La vassalisation économique n’est pas un fantasme, c’est une réalité. 5 %, ça change tout.

The post Michel Paulin, CSF Logiciels et Numérique de Confiance – « 5 % de commandes en plus, c’est 10 % de croissance pour la filière » appeared first on Silicon.fr.

  •  

Comment fonctionne la nouvelle « garantie ransomware » de Scality

Tous les clients ARTESCA bénéficient désormais d’une « garantie cyber » de 100 000 $.

Jérôme Lecat, président-fondateur de Scality, présente les choses ainsi, en anglais dans le texte.

En pratique, cette garantie ne s’applique pas à tous les clients. Elle concerne les titulaires de licences commerciales – matérielles, perpétuelles ou à durée indéterminée – d’une capacité de stockage d’au moins 50 To.

Scality s’engage à verser les 100 000 $ en question (ou l’équivalent dans d’autres devises) si survient un « incident cybernétique admissible ». En l’occurrence, « le cryptage ou la suppression démontrable de données résidant sur un volume de stockage géré par le logiciel, conséquence directe et unique d’une cyberattaque externe non autorisée ».

Les exfiltrations de données sont exclues. L’incident ne doit par ailleurs pas découler, en tout ou partie :

  • De la compromission des identifiants d’accès stockés, transmis ou gérés en dehors du logiciel
  • D’identifiants d’accès obtenus par des tiers via l’ingénierie sociale, le phishing, des logiciels malveillants ou le vol
  • Des actes malveillants et répréhensibles commis par des utilisateurs autorisés
  • D’une des responsabilités d’indemnisation du client

Coopération, maintenance, conformité…

Pour prétendre à une indemnisation, il faut utiliser la dernière version majeure d’ARTESCA (actuellement, la 4.1), « en stricte conformité avec la documentation […] et les directives de sécurité ». Et avoir installé l’ensemble des mises à jour / mises à niveau (dernière release en date : 4.1.3) et des correctifs dans les 30 jours suivant leur mise à disposition.

Quant aux données, elles doivent avoir été stockées dans des compartiments avec Object Lock (immuabilité) activé en mode conformité (aucun utilisateur, y compris root, ne peut les modifier ou les supprimer). Et être, au moment de l’incident, dans une période de conservation active.

La garantie constitue une pénalité forfaitaire unique. Son paiement est le seul recours en cas d’incident admissible (le client ne peut réclamer aucun autre dommage). Il n’interviendra qu’à condition que le client ait notifié l’incident par écrit dans les 48 heures suivant sa découverte. Et qu’il ait par la suite « coopéré pleinement » en fournissant les informations et les accès demandés.

Illustration générée par IA

The post Comment fonctionne la nouvelle « garantie ransomware » de Scality appeared first on Silicon.fr.

  •  

Pacte sur l’IA : un « répertoire d’alphabétisation » comme principal livrable

Pas facile de suivre l’évolution du cadre réglementaire, de sorte qu’il a fallu modulariser les formations.

IDEMIA Public Security en a témoigné en tant que signataire du Pacte sur l’IA.

Depuis septembre 2024, la Commission européenne promeut ce dispositif censé aider à préparer la mise en conformité avec l’AI Act. Les échanges qu’elle a organisés dans ce cadre ont notamment guidé l’élaboration de l’omnibus numérique. Ils ont aussi contribué à alimenter un « répertoire des pratiques d’alphabétisation en matière d’IA ».

Toile de fond à ce répertoire : l’article 4 de l’AI Act. Entré en application en février 2025, il impose aux fournisseurs et aux déployeurs de systèmes d’IA de garantir un « niveau suffisant de maîtrise de l’IA » pour leur personnel. Ainsi que pour quiconque s’occupe du fonctionnant de ces systèmes pour leur compte.

La première version publique de ce répertoire (janvier 2025) réunissait des retours d’expérience d’une quinzaine d’organisations. Aux dernières nouvelles, on en est à 40. Dont deux pour la France : Criteo et, donc, IDEMIA Public Security.

Criteo, entre bootcamps et « cafés IA »

Pour tous les employés qui exploitent l’IA dans leur travail au quotidien, Criteo a mis en place des cours en ligne destinés à l’acquisition des bases et d’un vocabulaire commun. Il y a associé des ambassadeurs aux RH, au juridique, aux achats, aux marketing et à l’IT. Il organise par ailleurs des événéments, dont des « cafés IA » et des webinaires (par exemple sur l’utilisation de Copilot dans Office).

Les personnels techniques ont, de longue date, accès à des bootcamps, mis au goût de l’IA. Suivies sur la base du volontariat, les leçons sont données par des employés qui développent des systèmes d’IA internes ou qui mènent des recherches sur des sujets importants pour Criteo. La première semaine permet – en présentiel à Paris ou bien à distance – de se familiariser avec la stack IA de lamaison et d’appréhender un usage responsable. Les trois suivantes, de réaliser un projet individuel sur un cas d’usage interne, avec supervision par un chercheur et un ingé.

IDEMIA juge la formation en ligne « plus difficile et moins efficace »

Au-delà de ses sessions « Tech Talk » et « Meet the Experts », ses partenariats académiques et sa contribution aux évaluations NIST, IDEMIA Public Security insiste sur la formation de ses clients.
Pour les systèmes non classés à haut risque, la formation est en ligne, en anglais. Le contenu est adapté au niveau d’expertise.
Pour ceux qui entrent dans la catégorie « à haut risque », l’objectif est de former 100 % des clients en personne avant déploiement.

IDEMIA Public Security reconnaît qu’il est délicat de gérer le turnover, des deux côtés. Il considère globalement qu’il est plus difficile et moins efficace de former en ligne, « en particulier pour les systèmes d’IA à haut risque ». S’y ajoute le sujet du maintien des contenus à jour. Il a été décidé de les segmenter afin de pouvoir actualiser des sections spécifiques.

230 adhérents volontaires

Le « répertoire d’alphabétisation » est un des livrables les plus visibles du Pacte sur l’IA. Parmi ses 120 premiers signataires, annoncés en septembre 2024, il y avait une quinzaine d’organisations françaises. Dont Amadeus, Cegid, Dassault Systèmes, Docaposte, Lefebvre Sarrut, Mirakl, Orange, OVHcloud et Sopra Steria. Depuis, 365Talents, l’AFNOR, Capgemini et Groupe Rocher, entre autres, ont rejoint la boucle. Laquelle comprend désormais environ 230 signataires. Près de deux tiers sont européens ; un quart, étatsuniens. La majorité (63 %) sont à la fois fournisseurs et déployeurs. 37 % évoluent dans le logiciel ; 19 %, dans les services IT ; 13 % dans le cloud et/ou les télécoms.

L’adhésion reste volontaire et non contraignante. Elle suppose toujours trois grands engagements :

  • Définir une stratégie de gouvernance de l’IA
  • Cartographier les systèmes susceptibles d’être classés à haut risque
  • Promouvoir la sensibilisation du personnel et plus globalement des parties impliquées

D’autres engagements sont adoptables « à la carte », en fonction de la position occupée dans la chaîne de valeur de l’IA. Par exemple :

  • Identifier les risques pour la santé, la sûreté et les droits fondamentaux
  • Implémenter une journalisation cohérente vis-à-vis des finalités
  • Donner la possibilité d’étiqueter les contenus générés

7 webinaires sous la bannière du Pacte pour l’IA

L’autre catégorie de livrables « visibles » comprend les 7 webinaires que le Bureau de l’IA a organisés jusque-là. Tous sont disponibles en replay.

Le premier (novembre 2024) a exploré les objectifs de l’AI Act, son approche basée sur les risques et les mécanismes de gouvernance qu’il instaure.

Le suivant (décembre 2024) s’est focalisé sur les dispositions qui entreraient en application en février 2025. Ainsi que sur la régulation des modèles d’IA à usage général, qui seraient quant à eux encadrés à partir d’août 2025.

Le troisième webinaire (février 2025) avait abordé les exigences de « maîtrise de l’IA » inscrites à l’article 4. Et le répertoire associé.

En avril 2025, les deux sujets principaux furent les pratiques interdites et la définition des systèmes d’IA. Sur ce dernier point, l’UE venait de publier des lignes directrices.

Des bacs à sable aux gigafactories

Le 5e webinaire, tenu en mai 2025, avait englobé divers dispositifs. Parmi eux, les (giga-)usines d’IA, l’initiative InvestAI et la stratégie pour l’union des données.
Il fut aussi question de la stratégie pour l’application de l’IA, que la Commission européenne adopterait en octobre. Elle se déploie sur trois axes : mise en place d’initiatives phares sectorielles, résolution de défis transversaux et mécanisme de gouvernance unique.

Parmi les initiatives phares, l’UE entend porter, pour les soins de santé, des centres européens de dépistage avancés. Pour la mobilité, une initiative Autonomous Drive Ambition Cities dans le cadre de bancs d’essai transfrontaliers. Pour la culture, des microstudios spécialisés dans la production virtuelle assistée par IA.
Les « défis transversaux » couvrent, dans les grandes lignes, l’attractivité de l’IA pour les PME, la formation d’une main-d’œuvre adaptée et la garantie d’une confiance dans le marché européen.
L’aspect gouvernance unique doit reposer sur la transformation de l’Alliance européenne pour l’IA en forum de coordination.

Lors du 6e webinaire (septembre 2025), il fut à nouveau question des modèles d’IA à usage général. Et du code de bonnes pratiques associé (publié en juillet).

Le dernier webinaire en date (novembre 2025) a traité des dispositifs d’innovation pour les PME. Essentiellement, les bacs à sable réglementaires, les installations sectorielles d’essai et d’expérimentation, la plate-forme unique d’information sur l’AI Act et les pôles européens d’innovation numérique.

Illustration générée par IA

The post Pacte sur l’IA : un « répertoire d’alphabétisation » comme principal livrable appeared first on Silicon.fr.

  •  

Guerre en Iran : les datacenters américains dans le viseur

Des drones iraniens ont frappé délibérément cette semaine les data centers d’AWS aux Émirats arabes unis et à Bahreïn. Selon le Financial Times (FT), c’est la première fois qu’une opération militaire prend pour cible les infrastructures d’une entreprise technologique américaine de premier plan.

L’agence Fars News, proche des Gardiens de la révolution islamique, a revendiqué ce jeudi des frappes contre des installations d’Amazon et de Microsoft dans la région. Si Microsoft a démenti tout incident opérationnel, AWS a confirmé que deux de ses sites aux Émirats avaient été « directement touchés » par des drones, mettant hors service deux de ses trois zones de disponibilité régionales.

Un data center en Bahreïn a également été atteint lors d’une attaque à proximité. AWS a conseillé à ses clients de migrer leurs données vers d’autres régions, reconnaissant que « l’environnement opérationnel au Moyen-Orient reste imprévisible ».

Des cibles difficiles à défendre

Les data centers présentent des caractéristiques qui en font des cibles vulnérables : des groupes électrogènes diesel, des turbines à gaz, et surtout d’imposants systèmes de refroidissement. « Ce sont des installations tentaculaires, et si vous mettez hors service les refroidisseurs, vous pouvez les mettre entièrement hors ligne », explique au FT Sam Winter-Levy, chercheur à la Carnegie Endowment for International Peace.

Matt Pearl, du think-tank américain CSIS, résume la logique de ces offensvives : « Les Iraniens voient les data centers comme une composante du conflit. C’est une façon d’avoir un impact réel dans la région. »

L’eldorado de l’IA du Golfe remis en question ?

Les conséquences de ces frappes dépassent largement le cadre militaire. Le Golfe avait misé sur son image de havre de stabilité pour attirer des investissements colossaux dans l’intelligence artificielle. L’Arabie saoudite, via son entité Humain, et les Émirats arabes unis, via G42, ont engagé des milliards aux côtés de Nvidia, Amazon et Microsoft pour construire de vastes clusters de data centers.

Abu Dhabi accueille également l’un des gigantesques projets « Stargate «  d’OpenAI. Le mois dernier encore, Microsoft annonçait l’ouverture prochaine d’un nouveau centre Azure en Arabie saoudite.

« Ces frappes pourraient fondamentalement changer le calcul de risque pour les investisseurs privés, les assureurs et les entreprises technologiques elles-mêmes », avertit Jessica Brandt, du Council on Foreign Relations. « Le Golfe s’était vendu comme une alternative sûre à d’autres marchés. Cet argument vient de perdre de sa force. »

Un avertissement mondial

Au-delà des capitaux, c’est le recrutement de personnel d’ingénierie et de construction qui pourrait pâtir du nouveau climat d’insécurité, selon un vétéran américain de l’industrie tech installé dans la région, cité par le FT. Il compare le projet « Stargate » aux usines de fabrication de puces d’Intel en Israël, protégées par l’armée et entourées de défenses anti-aériennes : « Il faut intégrer la protection dès le départ, c’est incontournable pour un projet de cette envergure. »

Reste que l’attaque soulève une question qui dépasse le seul Moyen-Orient. « C’est un avant-goût de ce qui va venir, et ces types d’attaques ne se limiteront pas à cette région », prévient Winter-Levy. À l’heure où les infrastructures numériques deviennent le nerf de la guerre économique et technologique mondiale, leur protection physique s’impose désormais comme un enjeu de souveraineté à part entière.

Ilustration générée par l’IA

The post Guerre en Iran : les datacenters américains dans le viseur appeared first on Silicon.fr.

  •  
❌