Vue lecture

Macrohard : Elon Musk relance son projet d’entreprise logicielle 100% IA

Elon Musk a officiellement lancé Macrohard, un projet qui vise à transformer la manière dont les logiciels sont conçus et exploités, en s’appuyant presque exclusivement sur des agents d’IA autonomes.

Un pied de nez à Microsoft… et bien plus

Macrohard est né au sein de xAI, la société d’intelligence artificielle d’Elon Musk, comme une “entreprise logicielle entièrement gérée par l’IA”, avec un nom volontairement sarcastique qui fait clairement référence à Microsoft.

Dès l’origine, il présente le projet comme une riposte directe aux géants du logiciel, avec l’ambition de simuler une société de type Microsoft qui “fait tout, sauf produire des objets physiques”.

Dans ses communications sur X, il insiste sur le fait qu’il ne s’agit pas d’un simple meme ou d’une blague marketing : Macrohard doit servir de démonstrateur à grande échelle de ce qu’une entreprise “full IA” peut faire, de la conception de produits à leur mise en production.

Macrohard or Digital Optimus is a joint xAI-Tesla project, coming as part of Tesla’s investment agreement with xAI.

Grok is the master conductor/navigator with deep understanding of the world to direct digital Optimus, which is processing and actioning the past 5 secs of…

— Elon Musk (@elonmusk) March 11, 2026

Digital Optimus, Grok et les agents autonomes

Macrohard, parfois présenté sous le nom de code Digital Optimus, s’appuie sur une architecture mêlant modèle de langage et agents opérationnels.

Le LLM Grok, développé par xAI, joue le rôle de “navigateur” ou de couche décisionnelle de haut niveau, là où les agents issus de l’écosystème Tesla exécutent les tâches concrètes, en traitant en temps réel le flux vidéo de l’écran, les frappes clavier et les mouvements de souris.

Techniquement, le projet vise à orchestrer des centaines d’agents spécialisés : génération de code, tests automatisés, génération de contenus, simulation d’utilisateurs, mais aussi gestion de processus métiers, le tout dans une boucle fermée où l’IA conçoit, exécute et corrige sans intervention humaine directe.

Pour supporter ces charges, Macrohard s’appuie sur les nouveaux accélérateurs AI4 de Tesla, présentés comme très peu coûteux, complétés par une infrastructure de serveurs basée sur du matériel Nvidia opérée par xAI.

Une alliance Tesla–xAI et une escalade capitalistique

Le lancement de Macrohard s’inscrit dans un rapprochement capitalistique entre Tesla et xAI, formalisé par un accord d’investissement de 2 milliards $ signé en début d’année. Musk y voit un prolongement naturel de sa stratégie consistant à repositionner Tesla comme une entreprise d’IA et de robotique avant d’être un constructeur automobile, en alignant robots physiques (Optimus) et “jumeaux” numériques (Digital Optimus / Macrohard).

Parallèlement, SpaceX a racheté xAI dans le cadre d’une opération valorisée 1250 milliards $ avec l’idée d’arrimer la prochaine génération de data centers, potentiellement orbitaux, à ces workloads IA massifs.

xAI a aussi sécurisé la marque Macrohard auprès de l’office américain des brevets dès 2025, couvrant un spectre large de logiciels liés à la génération de texte, de voix, de jeux vidéo et à l’automatisation de tâches logicielles.

Objectif : une entreprise logicielle “entièrement IA”

Dans sa communication, Musk résume Macrohard comme la tentative de “reproduire les opérations d’entreprises entières”, en particulier celles du logiciel. L’idée consiste à automatiser, via des agents IA, l’ensemble de la chaîne de valeur d’un éditeur : spécification produit, développement, QA, déploiement, exploitation et support, jusqu’à la gestion de la relation client simulée.

Macrohard se distingue des approches classiques d’“assistants pour développeurs” en visant explicitement le remplacement d’une grande partie des fonctions d’une société de logiciels, et non leur simple augmentation.

Pour Musk, c’est une réponse à l’alliance Microsoft-OpenAI : là où ces acteurs proposent des copilotages humains+IA, Macrohard se positionne sur le modèle inverse, celui d’une entreprise à majorité algorithmique supervisée par un nombre limité d’humains.

Impacts potentiels pour l’écosystème logiciel

Pour le secteur du logiciel, l’ambition de Macrohard soulève trois types de questions majeures
Si des agents peuvent répliquer une part significative du cycle de vie logiciel, la pression sur les marges des éditeurs traditionnels pourrait s’accroître, avec une redéfinition de la chaîne de valeur autour de l’orchestration d’IA plutôt que du développement humain.

Ensuite, la délégation de la production logicielle à des systèmes autonomes renforce les enjeux de vérification, de robustesse et de sécurité applicative, notamment face aux hallucinations, aux bugs indétectés et à la génération de vulnérabilités exploitables.

Enfin, la promesse d’une “entreprise logicielle sans développeurs” interroge sur l’évolution des métiers du développement, potentiellement déplacés vers la supervision d’agents, la gouvernance des données et la définition de politiques de contrôle.

The post Macrohard : Elon Musk relance son projet d’entreprise logicielle 100% IA appeared first on Silicon.fr.

  •  

Comment l’IA générative remodèle le paysage des cybermenaces

L’IA générative ne crée pas de nouvelles formes d’attaques, elle les industrialise. C’est l’un des constats majeur de l’édition 2025 du   » Panorame de la cybermenace »  de l’ANSSI.

L’agence identifie plusieurs effets directs. D’abord, une hausse de la qualité des leurres utilisés dans les campagnes d’hameçonnage.

Les erreurs grammaticales et stylistiques qui permettaient auparavant à un utilisateur averti de repérer un e-mail malveillant tendent à disparaître. L’IA aide à produire des contenus plus convaincants, en plus grand nombre, avec une diversité accrue et  à moindre coût.

L’ANSSI note également une réduction du coût de maintien des infrastructures d’attaque, ce qui abaisse la barrière d’entrée pour des acteurs moins sophistiqués.

Des sites malveillants indétectables à l’œil nu

L’un des signaux les plus concrets relevés par l’agence concerne la création de sites web à l’apparence légitime, entièrement générés par des systèmes d’IA.

Ces sites servent à héberger des charges malveillantes ou à effectuer ce que l’ANSSI appelle de la caractérisation, autrement dit, le profilage technique des visiteurs avant de les compromettre.

Comment les équipes de l’agence ont-elles détecté la nature artificielle de ces sites ? Par une anomalie révélatrice : l’insertion de textes incohérents au beau milieu de paragraphes, sans lien logique avec le reste du contenu. Un signe subtil, qui confirme que la vigilance humaine reste, pour l’instant, un maillon essentiel de la détection.

Le cercle vicieux de la pollution des données d’entraînement

L’IA générative ne se retourne pas seulement contre les utilisateurs finaux, elle menace aussi l’intégrité des modèles eux-mêmes.

L’ANSSI identifie ici un risque systémique : la multiplication de contenus fallacieux sur Internet finit par contaminer les jeux de données utilisés pour entraîner les futurs modèles.

Le mécanisme est simple. Les grands modèles de langage apprennent à partir des données disponibles sur le web. Si ces données sont massivement polluées par des contenus artificiels et erronés  produits par d’autres IA, dans un but malveillant ou non, les modèles de nouvelle génération intègreront ces biais et inexactitudes dans leurs réponses.

Selon l’agence nationale, des acteurs malveillants exploitent délibérément ce vecteur : en inondant le web de contenus fabriqués, ils cherchent à altérer le comportement des services d’IA pour fausser leurs résultats. Les services d’IA générative sont ainsi devenus des cibles prioritaires à part entière.

L’IA dans les entreprises : une surface d’attaque qui s’élargit

L’intégration croissante de l’IA dans les flux opérationnels des entreprises entraîne mécaniquement un élargissement de leur surface d’attaque et les conséquences d’une compromission peuvent être sévères.

L’agence en identifie plusieurs catégories :

Confidentialité et intégrité des données. Un système d’IA compromis peut servir de point d’entrée vers le reste du système d’information, avec des risques d’exfiltration de données sensibles ou d’atteinte à l’intégrité des SI connectés.

La chaîne d’approvisionnement logicielle. C’est peut-être le risque le plus structurel identifié par l’ANSSI : la compromission d’un système d’IA spécialisé dans la génération de code pourrait introduire des vulnérabilités ou des portes dérobées dans le code produit, à l’insu total des équipes de développement. Une nouvelle forme d’attaque supply chain, silencieuse et difficile à détecter.

Les risques réputationnels et économiques. Toute fuite de données liée à un système d’IA fait peser un risque sur la confiance des clients, avec des implications potentiellement existentielles pour certaines organisations.

Les recommandations de l’ANSSI : cloisonner, surveiller, auditer

Pour répondre à ces risques, l’ANSSI a publié un guide dédié à la sécurisation des solutions d’IA générative basées sur des LLM.

Les grandes lignes sont les suivantes.

> Cloisonnement. C’est le principe central. L’agence recommande une isolation physique ou fonctionnelle des systèmes d’IA pour éviter qu’une compromission ne se propage. Pour les logiciels dont la conception n’est pas totalement maîtrisée par l’organisation, la recommandation est claire : les déployer sur un poste isolé et dédié.

> Surveillance des flux. Le cloisonnement seul ne suffit pas. Une surveillance active des échanges d’informations des composants d’IA est nécessaire pour détecter toute anomalie comportementale.

> Audits larges. L’ANSSI déconseille les audits à périmètre restreint, qui peuvent laisser dans l’ombre des chemins de compromission entre l’environnement IA et le SI bureautique.

> Ne pas tout miser sur les outils. L’agence pointe une limite importante : une stratégie de sécurité qui repose exclusivement sur des produits — EDR, MFA — est insuffisante. Les attaquants apprennent à contourner ces outils, ou à s’injecter directement dans les sessions utilisateurs légitimes.

> Préparer la gestion de crise. En cas d’incident, la priorité doit être l’isolation immédiate des systèmes compromis, combinée à la révocation des accès de l’attaquant. Cette séquence doit être anticipée dans les plans de continuité (PCA) et de reprise d’activité (PRA).

L’évolution rapide des usages de l’IA impose, selon l’ANSSI, une réévaluation régulière de la menace. Une mise en garde qui s’adresse autant aux RSSI qu’aux directions générales : l’IA n’est plus seulement un outil de productivité, c’est désormais un vecteur de risque à part entière, qui exige une gouvernance de sécurité adaptée.

Photo : © ANSSI 

The post Comment l’IA générative remodèle le paysage des cybermenaces appeared first on Silicon.fr.

  •  

Cybermenaces 2025 : l’ANSSI pointe la reconfiguration des attaques d’Etats

L’ANSSI ne minimise pas le tableau. Si le nombre de cas de rançongiciels est en légère baisse – 128 incidents traités en 2025 contre 141 l’année précédente –  l’agence nationale se garde bien d’y voir un signe d’accalmie.

La menace se reconfigure plutôt qu’elle ne recule : on observe une montée en puissance des exfiltrations de données sans chiffrement, exploitées à des fins de chantage ou revendues sur les marchés clandestins. La pression sur les victimes reste donc entière, même sans blocage des systèmes.

L’édition 2025 de son  » Panorame de la cybermenace  » confirme une tendance lourde : des acteurs étatiques, notamment nord-coréens et chinois, s’emparent désormais d’outils cybercriminels à des fins purement lucratives. La dichotomie traditionnelle entre espionnage d’État et cybercriminalité organisée s’efface, rendant l’attribution des attaques et la réponse institutionnelle bien plus complexes.

Espionnage, sabotage : les États toujours à la manœuvre

Du côté de l’espionnage stratégique, les groupes réputés liés à la Russie -Callisto, Laundry Bear – et à la Chine – Salt Typhoon, APT31 – maintiennent un effort soutenu pour compromettre les réseaux diplomatiques et les infrastructures critiques dans les secteurs des télécommunications et de l’énergie. Une activité de fond, discrète mais persistante, qui vise le long terme.

Le sabotage, lui, prend des formes plus visibles. Fin 2025, des opérations coordonnées ont ciblé les infrastructures électriques polonaises. Des groupes hacktivistes s’en prennent par ailleurs à de petites installations industrielles ( énergies renouvelables, réseaux d’eau ) pour des actions à fort retentissement médiatique. L’objectif n’est plus seulement de paralyser, mais aussi de créer un effet de sidération dans l’opinion publique.

L’arsenal technique se diversifie et s’industrialise

Sur le plan tactique, l’année 2025 confirme plusieurs évolutions structurelles. Les attaquants s’appuient de plus en plus sur des outils légitimes pour brouiller les pistes : logiciels d’accès à distance comme AnyDesk ou TeamViewer, services de stockage cloud tels que Google Drive ou MEGA. En se fondant dans le trafic normal des entreprises, ils compliquent considérablement la détection.

L’intelligence artificielle générative s’impose comme un accélérateur de menace. Elle améliore la qualité et la crédibilité des tentatives d’hameçonnage, permet de générer à grande échelle des sites malveillants à l’apparence légitime, et s’insère progressivement dans les flux opérationnels des organisations pour en exploiter les failles.

L’ingénierie sociale, de son côté, se raffine. Le SIM-Swapping, le MFA Fatigue – technique consistant à saturer un utilisateur de demandes d’authentification jusqu’à ce qu’il valide par lassitude – ou encore la méthode dite « Clickfix », qui pousse la victime à exécuter elle-même une commande malveillante, sont en forte recrudescence.

Ces méthodes misent sur la faillibilité humaine plutôt que sur des vulnérabilités techniques, ce qui les rend particulièrement difficiles à contrer par des outils seuls.

La surface d’attaque s’élargit : bordure, cloud, mobile

Les équipements de bordure – pare-feu, VPN, proxys – restent des portes d’entrée privilégiées. En 2025, des vulnérabilités affectant des solutions majeures comme Ivanti, Fortinet, Citrix ou Microsoft SharePoint ont été massivement exploitées. Ces points névralgiques, exposés directement sur Internet, constituent une cible de choix pour les attaquants cherchant un accès initial discret.

La chaîne d’approvisionnement numérique est également dans le viseur : compromettre un prestataire de services ou un hébergeur cloud permet d’atteindre simultanément un grand nombre de clients finaux.

De nombreux incidents ont ainsi concerné en 2025 le chiffrement de ressources hébergées dans le cloud, illustrant la vulnérabilité des environnements mutualisés.

Enfin, les terminaux mobiles ne sont pas épargnés. Les logiciels espions de type Pegasus ou Triangulation, exploitant des failles « zéro-clic » dans des applications populaires comme WhatsApp, continuent de cibler aussi bien les appareils personnels que professionnels.

Les 4 secteurs les plus exposés

L’éducation et la recherche arrivent en tête des secteurs victimes avec 34 % des incidents traités, devant les ministères et collectivités territoriales (24 %), la santé (10 %) et les télécommunications (9 %). Des secteurs souvent caractérisés par des ressources en cybersécurité limitées, des systèmes d’information hétérogènes et une forte exposition aux données sensibles.

Photo : © DR ANSSI

The post Cybermenaces 2025 : l’ANSSI pointe la reconfiguration des attaques d’Etats appeared first on Silicon.fr.

  •  

LinkedIn, source numéro un des chatbots IA pour les recherches professionnelles

En l’espace de trois mois, LinkedIn est devenu l’une des références incontournables des moteurs de réponse par intelligence artificielle. C’est ce que révèle une étude publiée par Profound, plateforme spécialisée dans l’analyse marketing de l’IA, et reprise par Axios.

Entre novembre 2025 et février 2026, la fréquence de citation de LinkedIn par ChatGPT a plus que doublé. Le réseau professionnel est passé d’une 11e position environ en novembre à une 5e place en février,  soit la progression la plus significative observée par Profound sur cette période.

Mieux encore : sur l’ensemble des grandes plateformes d’IA analysées ( ChatGPT, Gemini, Google AI Overviews, Google AI Mode, Microsoft Copilot et Perplexity ), LinkedIn est aujourd’hui le domaine le plus cité pour les requêtes à caractère professionnel, sur la base de 1,4 million de citations analysées.

Le contenu publié prend le dessus sur les profils

L’étude de Profound met en lumière une évolution notable dans la nature des contenus LinkedIn repris par les IA.

Si les profils représentaient 33,9 % des citations en novembre 2025, cette part est tombée à 14,5 % en février 2026. À l’inverse, les publications (posts du fil d’actualité), les articles longs et les newsletters ont vu leur poids croître : combinés, ils représentent désormais environ 35 % de l’ensemble des citations LinkedIn dans ChatGPT, contre 27 % trois mois plus tôt. Les moteurs de réponse s’appuient donc de plus en plus sur le contenu éditorial produit sur la plateforme — qu’il émane de particuliers, d’entreprises ou de médias spécialisés.

Pourquoi LinkedIn attire les IA

Ce phénomène s’inscrit dans une tendance plus large. Des plateformes communautaires comme Reddit, Wikipédia ou YouTube figurent également parmi les sources les plus citées par les IA, précisément parce qu’elles concentrent une connaissance humaine authentique et conversationnelle.

Les modèles de langage y trouvent des réponses nuancées à des questions complexes. LinkedIn, avec sa densité de contenus professionnels accessibles au public, remplit aujourd’hui ce rôle dans le domaine des affaires et de l’expertise sectorielle.

Des implications concrètes pour les professionnels et les marques

Pour Erin Lanuti, cofondatrice de la plateforme d’analyse de données LinkedIn Lilypath, citée par Axios, le signal est clair : « La visibilité professionnelle est en train de changer. Il ne s’agit plus seulement de la façon dont les gens se présentent aux autres. Il s’agit de plus en plus de la façon dont les machines les interprètent en premier lieu. »

source principale d’autorité professionnelle, la clarté d’un profil devient déterminante pour savoir si une personne est mise en avant, jugée crédible  ou tout simplement ignorée.

Pour les entreprises, l’enjeu est similaire : chaque publication d’un commercial, chaque réflexion d’un dirigeant ou chaque mise à jour produit d’un chef de produit peut désormais contribuer à la façon dont la marque apparaît dans les réponses générées par l’IA.

Une fenêtre d’opportunité encore ouverte

Profound souligne que cette évolution ouvre une fenêtre d’opportunité encore peu exploitée. La majorité des marques n’ont pas encore ajusté leur stratégie pour en tenir compte. Celles qui investissent dès maintenant dans une présence éditoriale active sur LinkedIn pourraient bénéficier d’un avantage cumulatif, à mesure que les moteurs de réponse continuent de traiter la plateforme comme une source fiable.

LinkedIn rappelle toutefois que les outils de recherche par IA générative ne peuvent faire apparaître que les contenus rendus publics par les utilisateurs. « Nous continuons à protéger les données de nos membres contre toute extraction non autorisée », a précisé un porte-parole de la plateforme à Axios.

The post LinkedIn, source numéro un des chatbots IA pour les recherches professionnelles appeared first on Silicon.fr.

  •  

Meta rachète Moltbook, le « Reddit des bots IA »

Meta renforce sa stratégie IA avec le rachat de Moltbook. Cette plateforme se présente comme un « Reddit pour agents IA », où des agents créés avec la technologie OpenClaw publient, commentent et interagissent entre eux — sans utilisateurs humains. Meta n’a communiqué aucun détail financier.

Lancé fin janvier, le service a très vite attiré l’attention de l’écosystème. Il se positionne comme un réseau social expérimental réservé aux bots, capables de discuter entre eux et parfois de « commérer » sur leurs utilisateurs.

L’opération s’inscrit dans la montée en puissance de Meta Superintelligence Labs (MSL), l’entité IA du groupe qui cherche à développer des agents plus contextuels pour accompagner les utilisateurs dans leur vie quotidienne et aider les entreprises dans leurs processus.

Moltbook, un « réseau social » pour bots

Moltbook héberge des agents IA, souvent des assistants personnels pilotant des tâches sur les appareils des utilisateurs. Ces agents tiennent des conversations publiques, partagent des posts et interagissent dans des fils de discussion proches de Reddit. Ils reposent sur OpenClaw, un agent IA capable de rédiger des emails, organiser des agendas, coder ou automatiser des workflows sur le terminal de l’utilisateur.

Meta met en avant l’architecture de Moltbook, basée sur un annuaire toujours actif d’agents. Ces agents peuvent se découvrir, se connecter et coopérer. Dans ce modèle, des agents spécialisés se coordonnent via un réseau social, plutôt qu’au sein d’un seul système monolithique. Meta présente cette approche comme une « avancée novatrice dans un domaine en pleine évolution ».

Les cofondateurs de Moltbook, Matt Schlicht (CEO) et Ben Parr (COO), rejoignent les équipes de MSL.

Meta présente Moltbook comme un complément à sa stratégie de superintelligence. Cette stratégie vise des systèmes « profondément contextuels », capables d’aider les utilisateurs sur la durée, dans leurs habitudes, leurs relations ou leur travail.

Enjeux de sécurité

La trajectoire de Moltbook comporte des zones d’ombre. La plateforme suscite des inquiétudes sur la cybersécurité des systèmes multi-agents. Il est aussi difficile de tracer la part réelle d’autonomie des bots par rapport à leurs créateurs.

L’écosystème IA débat activement de la gouvernance des agents autonomes. Dans ce contexte, l’intégration de Moltbook chez Meta risque d’accentuer les débats sur la supervision, l’audit des comportements d’agents et la protection des données exposées dans ces environnements.

Meta insiste sur le potentiel de ces réseaux d’agents. Ils pourraient créer de nouveaux cas d’usage : des assistants métiers collaboratifs ou des systèmes de support client distribués. Mais Meta fait déjà l’objet d’une surveillance étroite sur sa gestion des données et de la modération. L’industrialisation d’un « Facebook des IA » pourrait donc devenir un nouveau terrain de tension avec les régulateurs européens — notamment sur la transparence des modèles et la responsabilité en cas de dérives d’agents.

Illustration générée par l’IA

 

The post Meta rachète Moltbook, le « Reddit des bots IA » appeared first on Silicon.fr.

  •  

Anthropic contre le Pentagone : une plainte à plusieurs milliards de dollars

Ce 10 mars, Anthropic a saisi la justice pour bloquer le Pentagone. L’entreprise refuse en effet de supprimer les garde-fous de son IA contre les armes autonomes et la surveillance intérieure. Or le secrétaire à la Défense Pete Hegseth avait notifié officiellement cette désignation le 3 mars, après des mois de négociations tendues.

Devant le tribunal fédéral de Californie, Anthropic dénonce des actions « sans précédent et illégales ». Elle invoque aussi une violation de ses droits constitutionnels à la liberté d’expression et au droit à une procédure régulière, selon Reuters. En parallèle, une seconde plainte cible une désignation au titre de risque dans la chaîne d’approvisionnement civile, devant la Cour d’appel du District de Columbia.

Des milliards de dollars en jeu

Les dirigeants d’Anthropic dressent un tableau financier alarmant dans leurs dépositions. Krishna Rao, directeur financier, estime que le gouvernement pourrait réduire le chiffre d’affaires 2026 « de plusieurs milliards de dollars ». Il ajoute que l’impact serait « presque impossible à inverser » si ces actions se maintenaient.

La dépendance au seul Département de la Défense met déjà en péril plusieurs centaines de millions de dollars de revenus 2026. Par ailleurs, les sous-traitants de la défense pourraient réduire leur engagement de 50 % à 100 %. Enfin, l’entreprise anticipe une perte de confiance des investisseurs, ce qui alourdirait ses coûts de financement.

Le secteur public : un pilier menacé

Thiyagu Ramasamy, directeur du secteur public, confirme des dommages « immédiats et irréparables ». Il chiffre la perte directe à plus de 150 millions $ de revenus récurrents annuels. Ce montant concerne les contrats existants et attendus avec le Département de la Défense.

La croissance dans ce segment était pourtant spectaculaire. Entre décembre 2025 et janvier 2026, le taux annualisé des revenus récurrents du secteur public avait quadruplé. De plus, les projections tablaient sur plusieurs milliards de dollars sur cinq ans. Ainsi, si les contractants de défense rompaient leurs liens, les revenus attendus pour 2026 — plus d’un demi-milliard de dollars — pourraient « disparaître entièrement ».

Des clients privés également touchés

Paul Smith, directeur commercial, détaille lui aussi les dommages sur le marché privé. Un partenaire a ainsi abandonné Claude au profit d’un concurrent pour un déploiement de la Food and ​Drug Administration (FDA). Ce changement efface un pipeline de revenus anticipés de plus de 100 millions $.

D’autres contrats souffrent également. Des négociations avec des institutions financières représentant 180 millions $ combinés ont été perturbées. Un contrat de 15 millions $ est en pause. En outre, un client fintech a réduit son engagement de 10 à 5 millions $, citant directement la « situation » avec le Pentagone.

Plus de 100 clients entreprises ont ensuite contacté Anthropic. Ils expriment « une profonde inquiétude, de la confusion et du doute » sur les risques liés à leur association avec la société.

Du côté d’AWS, on aide désormais les clients à migrer leurs charges de travail liées au Département de la Guerre vers d’autres modèles. Toutefois, AWS précise que Claude reste disponible pour toutes les charges de travail sans lien avec le Pentagone.

Un bras de fer aux répercussions sectorielles

Ce conflit dépasse le seul cas d’Anthropic. Il soulève des enjeux fondamentaux pour toute le secteur de l’IA. Ainsi, 37 chercheurs et ingénieurs d’OpenAI et de Google, dont Jeff Dean, directeur scientifique de Google, ont déposé un mémoire d’amicus curiae en soutien à Anthropic. Selon eux, cette affaire pourrait décourager les experts de l’IA de débattre ouvertement des risques et bénéfices de leurs technologies.

The post Anthropic contre le Pentagone : une plainte à plusieurs milliards de dollars appeared first on Silicon.fr.

  •  

AMI Labs lève 1 milliard $ pour développer ses « world models »

C’est l’annonce que l’écosystème des éditeurs de modèles IA attendait depuis que Yann LeCun avait annoncé son départ de Meta et son intention de développer Advanced Machine Intelligence (AMI) Labs.

Restaient les questions en suspens : Avec qui ?  Avec quels fonds ? Quand ?

L’ex directeur de Facebook AI Research (FAIR) a levé le voile ce 10 mars en annonçant une levée de fonds de 1,03 milliard $ (environ 890 millions €) en amorçage, pour une valorisation pré-money de 3,5 milliards $. Un record en Europe pour un tour d’amorçage, dépassé seulement par l’américaine Thinking Machines Lab, fondée par Mira Murati, ancienne directrice technique d’OpenAI., qui avait levé 2 milliards $ en juin 2025.

Une équipe de chercheurs issus de Meta

On connait aussi désormais l’équipe qui va développer le business d’AMI Labs : ils sont six co-fondateurs, tous  anciens de Meta. Alexandre Lebrun, ancien CEO de la start-up de santé Nabla (rachetée par Meta en 2015 sous le nom Wit.ai), prend la tête d’AMI Labs en tant que directeur général, tandis que Yann LeCun en préside le conseil d’administration.

Laurent Solly, ex patron de Meta pour l’Europe, assure le rôle de directeur des opérations. A ses côtés, Pascale Fung est directrice de la recherche et de l’innovation, Saining Xie est directeur scientifique, et Michael Rabbat est responsable des « représentations du monde ».

AMI Labs compterait aujourd’hui une dizaine de salariés et vise 30 à 50 personnes d’ici six mois, répartis entre son siège social de Paris et ses bureaux de New York, Montréal et Singapour.

Les « world models » contre les LLM

Au cœur du projet d’AMI Labs : une rupture revendiquée avec les grands modèles de langage (LLM) comme ChatGPT, Claude ou Gemini. Pour Yann LeCun, ces systèmes entraînés principalement sur du texte ne pourront jamais atteindre le niveau de raisonnement d’un humain, ni même celui d’un enfant de 6 ans ou d’un chat. « L’architecture générative entraînée par l’apprentissage auto-supervisé imite l’intelligence ; Ils ne comprennent pas vraiment le monde », résume Alexandre Lebrun.

L’alternative que développe AMI Labs s’appelle « world models » (modèles du monde) : des architectures d’IA capables de se représenter l’environnement physique de manière abstraite et conceptuelle, de mémoriser des informations et de planifier des séquences d’actions complexes  comme anticiper qu’un objet tombera s’il arrive au bord d’une table.

AMI Labs s’appuiera sur les travaux conduits par Yann LeCun chez Meta autour de l’architecture JEPA (Joint Embedding Predictive Architecture), entraînée sur des vidéos et des données spatiales plutôt que sur du texte.

Des ambitions industrielles et robotiques

AMI se positionne d’abord comme un projet de recherche fondamentale, mais avec des débouchés commerciaux clairement identifiés : fabricants, constructeurs automobiles, entreprises aérospatiales, acteurs du biomédical et de la pharmacie. « Nous voulons devenir le principal fournisseur de systèmes intelligents, quelle que soit l’application », a déclaré Yann LeCun à Reuters.

La robotique constitue l’une des applications prioritaires. « Pourquoi aujourd’hui, on a des systèmes qui passent l’examen du barreau, qui démontent des théorèmes, qui écrivent du code, mais on n’a toujours pas de robots domestiques ou de voitures qui se conduisent toutes seules ? »  » insistait-il sur France Inter.

Il envisage également des usages grand public avec le déploiement de cette technologie dans ses lunettes connectées Ray-Ban Meta. « C’est probablement l’une des applications potentielles à court terme » a-t-il annoncé à Reuters.

AMI Labs  va proposer ses modèles sous deux formes : un accès via API (modèle payant à la requête) et une version téléchargeable, potentiellement en open source. Un atout différenciateur, notamment pour recruter des profils de recherche de haut niveau.

Un tour de table mondial, un ancrage européen

Initialement ciblé à 500 millions $,la demande des investisseurs a largement dépassé les attentes. Le tour a été co-dirigé par Cathay Innovation, Greycroft, Hiro Capital, HV Capital et Bezos Expeditions (le fonds de Jeff Bezos). Nvidia, habitué des investissements dans les start-up d’IA, figure également parmi les participants, aux côtés du fonds singapourien Temasek, de SBVA (SoftBank), de Toyota Ventures et de Samsung.

Côté européen et français, on retrouve Daphni, Bpifrance, le Groupe industriel Marcel Dassault, l’Association Familiale Mulliez, Aglaé Ventures (LVMH), Zebox Ventures (CMA CGM) et Xavier Niel, à titre personnel.

« Il y a des investisseurs très diversifiés avec un peu plus du tiers qui sont européens, une grande partie de Français, un peu moins du tiers viennent d’Asie et du Moyen-Orient, et à peu près un tiers sont américains. Quand une entreprise dépasse une valorisation d’un milliard, on appelle ça une licorne, nous, on dépasse les trois milliards, donc on est un tricératops » se rejouit Yann LeCunil.

Le premier partenaire stratégique d’AMI Labs sera Nabla, la start-up d’IA pour la santé cofondée par Alex Lebrun, qui gardera en parallèle un rôle de directeur scientifique dans cette société. Une façon de tester dès le départ les modèles du monde sur des données réelles dans un secteur à fort enjeu.

Illustration : © DR AMI Labs

The post AMI Labs lève 1 milliard $ pour développer ses « world models » appeared first on Silicon.fr.

  •  

Comment Icade a fait de son IT un moteur stratégique

Le tournant est net. Depuis le 1er juillet 2024, la Direction de l’Information et des Systèmes Numériques (DISN) d‘Icade n’est plus cantonnée à un rôle de support. Désormais rattachée directement à la Direction Générale et représentée au Comex, elle est devenue un « levier de transformation du groupe », selon les termes d’Alexis de Nervaux, son nouveau Directeur des systèmes d’information et de la transformation digitale. L’objectif déclaré est de faire d’Icade le « pionnier de l’IA dans le secteur de l’immobilier ».

Deux vitesses pour l’IA

La feuille de route s’articule autour d’une distinction claire entre deux types d’usages. D’un côté, une « IA pour tous », à vocation bureautique, destinée à l’ensemble des collaborateurs pour simplifier leur quotidien. De l’autre, une « IA cœur de métier », orientée vers les activités spécifiques de foncière et de promotion immobilière.

L’approche revendiquée est résolument pragmatique. « Notre stratégie est basée sur des cas d’usage. Le point de départ est ce que l’on appelle des business opportunities », explique Alexis de Nervaux.

Delos : le choix de la souveraineté

Pour le volet bureautique, Icade a retenu Delos, une solution française hébergée en France. Un choix qui traduit une volonté assumée de « jouer la carte de la souveraineté ». La plateforme, déployée en mode SaaS, présente la particularité d’être multi-LLM : en fonction du prompt soumis, elle peut solliciter Mistral, ChatGPT ou d’autres modèles. « Cela permet d’offrir à nos utilisateurs finaux le meilleur des deux mondes », souligne le Directeur des systèmes d’information et de la transformation digitale.

Intégrée aux outils du quotidien – Teams et Outlook notamment – , la solution fonctionne comme un « copilote » capable de résumer des réunions ou de trier des courriels, sans alourdir l’infrastructure interne.

Des cas d’usage concrets sur les métiers

Sur le plan opérationnel, plusieurs déploiements sont déjà en cours. Pour la promotion, Icade s’appuie sur Lokimo, une start-up accompagnée par Icade à travers son start-up studio Urban Odyssey, et qui permet de sourcer le foncier et d’identifier le potentiel à l’échelle nationale selon des critères précis.

Pour la foncière, le groupe a développé une solution de Gestion Électronique de Documents (GED) intelligente, capable d’analyser et de synthétiser des millions de documents liés aux actifs immobiliers. Alexis de Nervaux en souligne la valeur concrète, notamment dans l’accélération de la constitution des dossiers par actif : « Cette solution nous permet de synthétiser et valoriser l’ensemble des données que nous possédons sur un actif par exemple. C’est un véritable gain de productivité et de temps pour les équipes.».

La data et le cloud comme prérequis

Pour soutenir ces ambitions, Icade a recruté un Chief Data Officer en avril dernier et lancé un projet de Data Plateforme destiné à améliorer la qualité et à décloisonner la donnée. Pour le Directeur des systèmes d’information et de la transformation digitale, le message est sans appel : « Il n’y a pas d’IA sans data. L’IA n’est pas une potion magique qui va transformer votre data de mauvaise qualité en or ».

En parallèle, le groupe applique une stratégie « Cloud-first et SaaS-first » via un projet de migration « Move to Cloud ». La logique est celle de la délégation aux spécialistes : « Nous serons toujours moins bon qu’un « pure player » comme Amazon, Azure ou OVH. Nous n’avons donc aucun intérêt, à mon sens à gérer cela en interne ».

La formation, clé de l’adoption

La dimension humaine occupe une place centrale dans la démarche. Icade s’est associé à Mister IA pour proposer des formations concrètes à ses collaborateurs. Alexis de Nervaux est catégorique sur le sujet : « Le succès d’une formation, est l’appropriation des outils par les collaborateurs, qu’ils en ressortent avec un savoir-faire pratique, créateur de valeur, qui puisse être mis en place immédiatement. »

Sécurité et agilité : un équilibre revendiqué

Fort d’une expérience directe d’une cyberattaque d’envergure, le CDIO n’ignore pas les enjeux de cybersécurité. Mais il refuse d’en faire un frein à l’innovation : « On ne peut pas se permettre de bâtir une forteresse sans que celle-ci soit intégrée à une stratégie plus globale. Le temps que l’on y parvienne on est déjà en retard ». La stratégie d’Icade entend donc concilier rigueur opérationnelle en matière de sécurité et agilité dans la transformation des processus métiers.

Photo : Alexis de Nervaux © DR

The post Comment Icade a fait de son IT un moteur stratégique appeared first on Silicon.fr.

  •  

Ce que l’on sait de Microsoft 365 E7 à 99 $ par mois

Microsoft  franchit un nouveau cap, le 1er mai prochain, dans la monétisation de l’intelligence artificielle avec l’arrivée d’une offre Microsoft 365 E7 tarifée 99 $ par utilisateur et par mois. Destinée aux grandes entreprises, cette nouvelle formule se place au‑dessus de l’actuel E5 et ambitionne de devenir le « bundled » ultime pour les entreprises qui veulent industrialiser l’usage de l’IA dans leurs workflows.

Un palier au‑dessus d’E5, centré sur Copilot et Agent 365

Microsoft 365 E7 reprend l’intégralité des fonctionnalités du bundle E5, en y ajoutant l’ensemble des briques d’IA que Microsoft commercialise aujourd’hui à la carte. Au cœur de l’offre : l’assistant Microsoft Copilot et un nouveau hub de gestion d’agents d’IA baptisé Agent 365, pensé pour orchestrer, superviser et gouverner des agents spécialisés à l’échelle de l’entreprise.

Concrètement, E7 se présente comme une suite « AI‑first » : plutôt que d’ajouter Copilot comme simple add‑on à un abonnement existant, Microsoft intègre nativement ces capacités dans le bundle, avec des fonctions avancées de sécurité, d’identité et de management déjà présentes dans E5. L’objectif est double : simplifier le portefeuille de licences pour les clients qui ont déjà adopté Copilot, et inciter les autres à franchir le pas en regroupant l’ensemble dans un seul contrat.

Microsoft 365 E7 : 99 $ par utilisateur

Avec un prix cible de 99 $ par utilisateur et par mois, E7 marque une hausse significative par rapport à E5, actuellement à 57 $ et annoncé à 60 $ à partir du 1er juillet 2026. Si l’on additionne aujourd’hui E5 et les options IA comme Copilot vendues séparément, le total se rapproche déjà de ce niveau de prix ; l’enjeu pour Microsoft est donc de transformer ces lignes de revenus additionnelles en un palier premium clairement identifié.

En toile de fond, se trouve la nécessité pour Microsoft de rentabiliser les dizaines de milliards de dollars investis dans l’infrastructure IA (centres de données, GPU, supercalculateurs). Un tarif à 99 $ par utilisateur, couplé à un éventuel modèle hybride combinant prix par siège et facturation à la consommation des ressources IA, permettrait de rapprocher davantage Microsoft 365 des logiques économiques déjà en place sur Azure.

Une stratégie de timing pour faire monter les clients en gamme

La fenêtre de lancement envisagée n’est pas anodine. Microsoft a déjà annoncé une augmentation globale des tarifs de Microsoft 365 à l’horizon juillet 2026, avec une hausse notamment pour les plans E3 et E5. En introduisant E7 au moment où les prix des offres existantes montent, l’éditeur espère orienter une partie des clients vers ce nouveau palier plutôt que de les voir se contenter de plans intermédiaires.

Microsoft indique ainsi que « Microsoft 365 E7 unifie Microsoft 365 E5, Microsoft 365 Copilot et Agent 365 en une solution unique optimisée par Work IQ et intégrée aux applications et à la pile de sécurité auxquelles les clients font déjà confiance. Elle comprend Microsoft Entra Suite et les fonctionnalités de sécurité avancées Defender, Intune et Purview, offrant une protection complète aux agents et aux employés.»

L’objectif est de capter les budgets des grands comptes qui veulent structurer l’usage de l’IA tout en renforçant leurs capacités de sécurité, conformité et gestion des identités.

Quels enjeux pour les DSI et les équipes achats ?

Pour les directions informatiques, E7 ouvre autant de possibilités que de questions. La promesse est séduisante : une suite unifiée, intégrant productivité, sécurité et IA, avec Copilot et Agent 365 comme colonne vertébrale des usages intelligents. Mais à 99 $ par utilisateur, l’adoption à grande échelle suppose une analyse fine du retour sur investissement : gains de productivité, automatisation de processus, réduction des coûts liés à la gestion multi‑licences, ou encore rationalisation des outils tiers.

The post Ce que l’on sait de Microsoft 365 E7 à 99 $ par mois appeared first on Silicon.fr.

  •  

Michel Paulin, CSF Logiciels et Numérique de Confiance – « 5 % de commandes en plus, c’est 10 % de croissance pour la filière »


83 %. C’est la part de marché des éditeurs américains dans le cloud et le SaaS en Europe. Un chiffre vertigineux, qui résume à lui seul l’ampleur de la dépendance technologique dans laquelle se trouve la France et l’ensemble du continent européen.

Pourtant, des alternatives existent. Des entreprises françaises innovent, recrutent, exportent. Alors pourquoi l’État lui-même continue-t-il d’acheter massivement américain, au mépris des doctrines qu’il a lui-même édictées ? Pourquoi ce décalage persistant entre les discours sur la souveraineté numérique et la réalité des contrats signés ?

C’est à ces questions que répond Michel Paulin, président du Comité Stratégique de Filière Logiciel et Solutions Numériques de Confiance, dans un entretien sans détour à Silicon.

Sa conviction : inutile d’attendre une grande loi ou un plan de subventions supplémentaire. Rediriger seulement 5 % de la commande vers l’écosystème national suffirait à créer 10 000 emplois et à rapatrier un milliard d’euros dans les caisses de l’État.

—————————

Extrait de l’interview d Michel Paulin, Président du Comité Stratégique de Filière Logiciels et Solutions Numériques de Confiance.

Silicon – Quelle est la genèse du Comité Stratégique de Filière logiciel et solutions numériques de confiance, officiellement lancé en avril 2025 ?
Michel Paulin – Il n’y avait pas de filière dans le domaine. En septembre 2022, le ministre de l’industrie et des finances de l’époque ( Bruno Le Maire, NDLR) a annoncé la création d’une filière et m’a demandé de faire le précadrage. De septembre 2022 à avril 2025, nous avons consulté près de 600 à 800 entreprises qui ont répondu à des questionnaires et à des sollicitations. On a discuté avec l’État pour définir un contrat de filière qui a été signé en avril 2025. L’objectif de ce contrat, c’est très simple : définir quelles sont les mesures que l’on peut prendre avec l’ensemble des parties prenantes, clients, État, collectivités locales, mais aussi activités périphériques, pour faire en sorte que la filière française puisse grossir, grandir, se développer.

Quel est son périmètre ?
Michel Paulin – Ce périmètre a été décidé par l’État. Il couvre quatre domaines : éditeur de logiciels, domaine du cloud, domaine du quantique, et l’intelligence artificielle en tant que producteur, éditeur de modèles, éditeur d’agents ou de solutions de cette nature.

«La filière se porte bien mais elle fait face à des défis énormes »

Comment se porte cette filière aujourd’hui ?
Michel Paulin – C’est une filière qui va plutôt bien : 25 milliards € de chiffre d’affaires, une croissance souvent très proche des deux chiffres sur ces 5-6 dernières années, et environ 10 000 emplois nets créés chaque année pour plus de 100 000 personnes employées. Quand on se compare à d’autres filières industrielles qui souffrent aujourd’hui en France et en Europe, c’est une filière qui se tient bien. En revanche, il faut mettre les pieds sur la table : elle est face à des défis énormes.

Le premier défi, c’est la taille. Une dizaine d’entreprises aux États-Unis sont à elles seules plus grandes que toute la filière française. Il n’y a que 4 sociétés en France qui dépassent le milliard de chiffre d’affaires, Dassault Systèmes, OVHcloud et quelques pépites de quelques centaines de millions. Mistral espère peut-être dépasser le milliard.

Le deuxième défi, c’est l’accès aux fonds propres. Pour investir en R&D, dans l’IA, les infrastructures, l’innovation, il faut de gros fonds propres. Rester dans le giron européen avec des levées supérieures à 100, 200 ou 300 millions, c’est difficile. Dans le quantique, les trois dernières levées américaines vont de 600 millions à un milliard de dollars, principalement par des fonds anglo-saxons. Lever un milliard en restant européen aujourd’hui, c’est impossible.

Le troisième défi, c’est les compétences. On ne forme pas assez d’ingénieurs, on n’attire pas assez de femmes dans la filière. Aujourd’hui, 22 % des postes techniques sont occupés par des femmes, contre 40 % en Inde ou au Maroc. Ça commence à l’école primaire : il faut mettre en avant la science pour former plus de monde.

« Dire « il n’y a pas d’offre « est une insulte à la
filière »

Face aux menaces de Donald Trump et la fin des « cadeaux aux alliés », faut-il porter les trois dossiers en même temps ou prioriser le financement et la commande publique ?Michel Paulin -Dans le cadre du contrat de filière, on a défini cinq priorités : l’offre, la commande, l’innovation, la formation, et la protection des données sensibles. Et aussi, parce que le marché est mondial, comment aider les entreprises françaises à exporter et à aller à l’international.

La raison principale du retard par rapport aux filières coréenne, israélienne ou canadienne, c’est la commande publique et la commande privée, qui est le driver essentiel. Les parts de marché de l’État dans le software acheté auprès de la filière française sont très faibles ; dans certains domaines, on est quasiment à 5 ou 10 %. Je salue l’initiative du gouvernement qui dit qu’il faut réfléchir vers les filières nationales, parce que la situation est catastrophique.

Comment expliquer ce décalage entre la capacité de production de l’écosystème français et la réalité de la commande publique ? Les administrations sont-elles en décalage par rapport aux doctrines de l’État ?
Michel Paulin – Il y a beaucoup de facteurs. Et je ne devrais pas réserver ça uniquement à la commande publique : il faut aussi mettre les grands groupes face à leurs responsabilités. On ne peut pas parler de risque de vassalisation sans agir. On a vu récemment qu’on a coupé les services bancaires d’un juge français aux États-Unis ; ce n’est plus de la science-fiction, c’est une réalité.

Dans le cloud et le SaaS, les éditeurs américains ont 83 % de parts de marché en Europe, c’est un excellent rapport du Cigref qui l’indique. Les acheteurs ont parfois le « syndrome IBM » des années 80 : on choisit le dominant par habitude pour ne pas prendre de risques. En Europe, on est très forts pour ne pas avoir de préférence, on n’a pas de  » American Buy Act « . Les critères qui favorisent le produit local ont longtemps été tabous.

Il y a aussi des acteurs dominants qui abusent de leur position : la Cour des comptes et les autorités de la concurrence le disent. Une dizaine d’instructions sont en cours sur des pratiques de cloud qui augmentent les tarifs sans justification : 5 à 10 % de hausse par an, et une verticalisation des solutions pour lier encore plus les clients à leur logique.

« Une stratégie multi-cloud pourrait très bien consister à choisir un opérateur américain et un opérateur français ou européen.»

Patrick Pouyanné, PDG de TotalEnergies, a déclaré qu’il aimerait acheter français ou européen, mais qu’il n’y a pas d’offre. Que lui répondez-vous ?
Michel Paulin – Ce narratif construit par ceux qui veulent garder le monopole de fait est très puissant. Dire « il n’y a pas d’offre » est une insulte à la filière. Est-ce qu’on a des ingénieurs qui ne sont pas capables de faire des produits ? Est-ce que Mistral n’est pas au niveau ? Dans tous les domaines, il y a des alternatives. Faisons-leur confiance.

Quand on fait une stratégie multi-cloud avec trois acteurs américains, ça correspond à quoi ? Une dépendance totale, technologique, financière et légale. Une stratégie multi-cloud pourrait très bien consister à choisir un opérateur américain et un opérateur français ou européen sur les domaines où ils sont bons. Ces opérateurs font quand même de l’ordre du milliard, ce ne sont pas des boîtes en dehors des clous.

Sur la virtualisation, il y a eu le scandale VMware-Broadcom, qui impose à ses clients des augmentations de prix fois trois, fois cinq. Il existe des alternatives en Europe : Proxmox côté allemand, Vates en France. Quand vous êtes face au renouvellement d’une licence avec une multiplication par trois ou quatre du tarif, pourquoi ne pas tester ?

Dans la cyber, une société me disait que dans un appel d’offre sur deux, ils ne sont même pas interrogés. Quand on dit « il n’y a pas d’alternative », faisons des appels d’offres et donnons la chance à tout le monde. Le Health Data Hub : pas d’appel d’offre. Le ministère de la Santé disait « les acteurs ne répondent pas aux besoins ». Quel est le cahier des charges ? Quel est l’appel d’offre ? Il n’y en a pas. C’est un narratif non factuel, construit pour justifier que l’on ne sollicite même pas ces offres. Elles existent, faisons-leur confiance.

« Pour le « Cloud au Centre » : on annonce la doctrine, et puis on ne fait que des exceptions.»

Comment expliquer que des directives politiques comme « Cloud au Centre »  ne soient pas suivies d’effet par les administrations, voire par l’Assemblée nationale elle-même ?

Michel Paulin – Moi je ne peux pas l’expliquer. C’est une question à poser aux décideurs publics. Une des demandes que nous avons, c’est : au lieu de rajouter des régulations, en Europe on adore en rajouter, appliquons avec courage et rigueur celles qui existent. Le DMA : qu’est-ce qu’on commence par faire ? Des exceptions. Le cloud a même été exclu du DMA.
Pour le « Cloud au Centre » : on annonce la doctrine, et puis on ne fait que des exceptions. Ça ne sert à rien de faire une doctrine si on ne l’applique pas.

Le RGPD ne devrait pas accepter des exceptions non plus. Mais le RGPD est compliqué parce que ces acteurs sont pilotés depuis l’Irlande, et l’Irlande n’est pas très zélée pour faire respecter le droit européen sur la protection des données. Il y a des biais et des cas de RGPD enfreints.

Il faut avoir le courage de dire : arrêtons de rajouter des réglementations, des certifications, des labels dans tous les sens ; il y en a trop. En revanche, concentrons-nous pour faire respecter celles qui existent. De même, plutôt que de subventionner dans tous les sens, subventionnons l’innovation et achetons européen. Sur les domaines de l’IA, des infrastructures, du quantique, de la recherche fondamentale, du hardware avec les nouveaux modèles de GPU.
Oui il faut aider à l’innovation avec un partenariat public-privé fort entre le CEA, l’INRIA et le CNRS. Mais le principal levier, c’est la commande, parce que c’est ce qui fait grossir la filière et c’est la seule garantie d’une souveraineté.

Y a-t-il des engagements concrets ? Faut-il passer par la loi, des obligations dans les appels d’offres, un fléchage contraignant ? Êtes-vous optimiste ?
Michel Paulin – Je rêverais d’une loi qui permette de résoudre tous ces problèmes. Mais la préférence européenne d’achat est aujourd’hui interdite par la loi européenne : on n’a pas le droit de le faire. Alors que les Américains le font, les Chinois le font, les Coréens le font. On est les seuls à croire que c’est une distorsion de la concurrence. C’est incroyable.

Cela dit, il ne faut pas tomber dans l’attentisme en attendant la prochaine loi. Il y a plein de choses à faire concrètement dès maintenant. Je donne un chiffre : 83 % du SaaS et du cloud sont monopolisés par quelques acteurs. Si on fléchait 5 % de ces commandes vers la filière, ce n’est pas un choc systémique mais c’est 10 % de croissance pour la filière française, 10 000 emplois créés, et 1 milliard de taxes et cotisations sociales qui reviennent dans les caisses de l’État au lieu de partir en évasion fiscale légale en Irlande ou aux États-Unis.

Et l’enjeu géopolitique est réel. Les Américains ont voulu taxer les Chinois. Les Chinois ont regardé tout le stack et ont dit : « les terres rares, on ne vous les donne plus ». Comme par hasard, les taxes ont disparu. La vassalisation économique n’est pas un fantasme, c’est une réalité. 5 %, ça change tout.

The post Michel Paulin, CSF Logiciels et Numérique de Confiance – « 5 % de commandes en plus, c’est 10 % de croissance pour la filière » appeared first on Silicon.fr.

  •  

Guerre en Iran : les datacenters américains dans le viseur

Des drones iraniens ont frappé délibérément cette semaine les data centers d’AWS aux Émirats arabes unis et à Bahreïn. Selon le Financial Times (FT), c’est la première fois qu’une opération militaire prend pour cible les infrastructures d’une entreprise technologique américaine de premier plan.

L’agence Fars News, proche des Gardiens de la révolution islamique, a revendiqué ce jeudi des frappes contre des installations d’Amazon et de Microsoft dans la région. Si Microsoft a démenti tout incident opérationnel, AWS a confirmé que deux de ses sites aux Émirats avaient été « directement touchés » par des drones, mettant hors service deux de ses trois zones de disponibilité régionales.

Un data center en Bahreïn a également été atteint lors d’une attaque à proximité. AWS a conseillé à ses clients de migrer leurs données vers d’autres régions, reconnaissant que « l’environnement opérationnel au Moyen-Orient reste imprévisible ».

Des cibles difficiles à défendre

Les data centers présentent des caractéristiques qui en font des cibles vulnérables : des groupes électrogènes diesel, des turbines à gaz, et surtout d’imposants systèmes de refroidissement. « Ce sont des installations tentaculaires, et si vous mettez hors service les refroidisseurs, vous pouvez les mettre entièrement hors ligne », explique au FT Sam Winter-Levy, chercheur à la Carnegie Endowment for International Peace.

Matt Pearl, du think-tank américain CSIS, résume la logique de ces offensvives : « Les Iraniens voient les data centers comme une composante du conflit. C’est une façon d’avoir un impact réel dans la région. »

L’eldorado de l’IA du Golfe remis en question ?

Les conséquences de ces frappes dépassent largement le cadre militaire. Le Golfe avait misé sur son image de havre de stabilité pour attirer des investissements colossaux dans l’intelligence artificielle. L’Arabie saoudite, via son entité Humain, et les Émirats arabes unis, via G42, ont engagé des milliards aux côtés de Nvidia, Amazon et Microsoft pour construire de vastes clusters de data centers.

Abu Dhabi accueille également l’un des gigantesques projets « Stargate «  d’OpenAI. Le mois dernier encore, Microsoft annonçait l’ouverture prochaine d’un nouveau centre Azure en Arabie saoudite.

« Ces frappes pourraient fondamentalement changer le calcul de risque pour les investisseurs privés, les assureurs et les entreprises technologiques elles-mêmes », avertit Jessica Brandt, du Council on Foreign Relations. « Le Golfe s’était vendu comme une alternative sûre à d’autres marchés. Cet argument vient de perdre de sa force. »

Un avertissement mondial

Au-delà des capitaux, c’est le recrutement de personnel d’ingénierie et de construction qui pourrait pâtir du nouveau climat d’insécurité, selon un vétéran américain de l’industrie tech installé dans la région, cité par le FT. Il compare le projet « Stargate » aux usines de fabrication de puces d’Intel en Israël, protégées par l’armée et entourées de défenses anti-aériennes : « Il faut intégrer la protection dès le départ, c’est incontournable pour un projet de cette envergure. »

Reste que l’attaque soulève une question qui dépasse le seul Moyen-Orient. « C’est un avant-goût de ce qui va venir, et ces types d’attaques ne se limiteront pas à cette région », prévient Winter-Levy. À l’heure où les infrastructures numériques deviennent le nerf de la guerre économique et technologique mondiale, leur protection physique s’impose désormais comme un enjeu de souveraineté à part entière.

Ilustration générée par l’IA

The post Guerre en Iran : les datacenters américains dans le viseur appeared first on Silicon.fr.

  •  

Vibeware : quand l’IA industrialise la cybercriminalité médiocre

Dans une nouvelle analyse consacrée à l’évolution des opérations du groupe APT36 (également connu sous le nom de Transparent Tribe), Bitdefender documente l’émergence d’un modèle de développement de malwares assisté par l’IA que ses chercheurs qualifient de « vibeware ».

L’intelligence artificielle n’a pas encore produit le cyberattaquant omniscient que certains redoutaient. Ce qu’elle produit, en revanche, est peut-être plus insidieux : une chaîne de production automatisée de logiciels malveillants médiocres, jetables, et suffisamment nombreux pour saturer les défenses.

Un nouveau modèle industriel de la menace

Le vibeware désigne une approche du développement de malwares pilotée par l’IA qui privilégie la quantité sur la qualité. L’idée n’est pas de concevoir une cyberattaque brillante, mais d’en produire des dizaines, chaque jour, de manière automatisée.

Des groupes comme APT36, groupe de cybercriminels pakistanais bien documenté, seraient désormais capables de maintenir une cadence d’un nouveau variant de malware par jour. Ce rythme industriel permet de « saturer » la télémétrie défensive standard. Chaque nouveau binaire nécessite une analyse, chaque nouvelle signature doit être établie. Les équipes de sécurité se retrouvent à courir après un flot continu de menaces mineures, au risque de manquer l’essentiel.

Les chercheurs ont qualifié cette stratégie de DDoD pour Distributed Denial of Detection, ou déni de détection distribué. Par analogie avec les attaques DDoS classiques qui submergent un serveur par le volume de requêtes, le DDoD submerge les capacités d’analyse et de détection des équipes cyber avec un flux constant de codes renouvelés. L’objectif n’est pas de surpasser les défenses par le génie technique, mais d’épuiser les défenseurs.

Des langages exotiques pour réinitialiser les détections

L’un des leviers techniques les plus efficaces du vibeware réside dans le recours à des langages de programmation inhabituels. Les moteurs de détection sont, pour la plupart, optimisés pour analyser du code écrit en C++, C# ou .NET. Les attaquants l’ont bien compris.

Grâce aux LLM, il est désormais possible de porter la logique d’un malware existant vers un langage de niche sans disposer d’une expertise préalable. Les langages favorisés par APT36 incluent notamment :

  • Nim : représentant moins de 0,1 % de l’indice TIOBE, ce langage compile en C ou C++ mais utilise un moteur d’exécution unique. Les scanners de sécurité le classent souvent comme « inconnu » plutôt que « malveillant ». Il est utilisé comme enveloppe (wrapper) furtive pour masquer des charges utiles plus anciennes.
  • Zig : utilisé pour des outils comme ZigShell ou ZigLoader, ce langage offre des performances élevées tout en échappant aux signatures comportementales des solutions EDR.
  • Crystal : également trop rare pour disposer de signatures établies dans de nombreux outils de détection de terminaux.

À ces langages de niche s’ajoutent Rust et Go, plus connus mais appréciés pour leur stabilité mémoire lors de tâches intensives comme l’exfiltration massive de données.

L’effet stratégique est double : réinitialisation de la détection ( chaque nouveau langage oblige les outils de sécurité à repartir de zéro) et accessibilité simplifiée par l’IA, qui permet à des attaquants sans expertise spécifique de générer du code fonctionnel dans ces langages.

Living Off Trusted Services : se cacher dans le trafic légitime

Le vibeware excelle également dans l’exploitation des services cloud légitimes pour ses canaux de commande et de contrôle. Cette technique, désignée sous le terme de Living Off Trusted Services (LOTS), consiste à utiliser des plateformes comme Google Sheets, Discord, Slack ou Supabase comme infrastructure C2.

L’exemple le plus documenté est SheetCreep, un malware écrit en C# qui transforme une feuille de calcul Google Drive en véritable tableau de bord d’administration. Son fonctionnement est précis :

  • Le malware interroge régulièrement une feuille de calcul spécifique pour y récupérer des instructions.
  • Les commandes sont encodées en Base64 puis chiffrées via un algorithme DES (mode ECB).
  • Les résultats d’exécution sont renvoyés dans les cellules du tableur via l’API Google Drive.
  • L’infrastructure est organisée en onglets dédiés : unenc_requests, unenc_outputs, unenc_heartbeats, unenc_systems.

D’autres outils de la flotte APT36 s’appuient sur Discord (CrystalShell), Slack (ZigShell), Firebase et Supabase pour la gestion des sessions et le stockage des données volées, ou encore sur Microsoft Graph API via l’infostealer MailCreep.
Azure Front Door est également utilisé pour masquer les communications malveillantes dans du trafic HTTPS légitime.

L’IA joue ici un rôle d’accélérateur décisif : ces plateformes disposent de documentations publiques abondantes et de SDK bien référencés dans les données d’entraînement des LLM. Générer du code d’intégration stable pour Google Sheets ou Discord est devenu trivial, même pour un attaquant sans compétence technique approfondie.

Les limites du vibeware

Il serait inexact de présenter le vibeware comme une rupture technologique car le code généré par l’IA est souvent dérivé, incohérent, et sujet à des erreurs logiques critiques.

Plusieurs cas documentés illustrent ces failles :

  • Des binaires déployés avec l’URL du serveur C2 laissée en « placeholder » (modèle vide), rendant l’exfiltration de données impossible.
  • Des composants qui s’effondrent dès que la logique atteint un niveau de complexité modéré.
  • Dans le cas de CrystalShell, l’absence de protocole de communication entre les bots aurait généré des « broadcast storms » inutiles, et la commande de statut réinitialisait la métrique qu’elle était censée mesurer.
  • Des outils incapables de supprimer leurs propres fichiers temporaires après exécution, facilitant l’analyse forensique post-attaque.

Cette fragilité structurelle explique pourquoi les groupes comme APT36 continuent d’utiliser des frameworks classiques et éprouvés (Cobalt Strike ou Havoc) comme filet de sécurité. Les outils « vibe-coded » ne sont pas encore assez fiables pour porter seuls la responsabilité d’une opération critique.

Par nature, les LLM sont entraînés sur des dépôts publics comme GitHub : ils réorganisent des patterns existants sans inventer de nouvelles méthodologies d’attaque. Ils manquent de véritable compréhension du contexte de sécurité.

Comment se défendre : passer du statique au comportemental

Face au vibeware, une défense basée sur les signatures est structurellement inadaptée. Les recommandations convergent vers une approche dynamique et comportementale.

> Prioriser l’analyse comportementale. L’injection de processus ou le process hollowing restent des constantes, quel que soit le langage utilisé. Les solutions EDR/XDR doivent surveiller ces comportements plutôt que les signatures de binaires. La surveillance des répertoires d’écriture utilisateur (%APPDATA%, %TEMP%) et le scan régulier de la mémoire complètent ce dispositif.

> Auditer les services cloud. Les connexions persistantes vers Discord, Slack ou Google Sheets provenant de binaires non vérifiés doivent être traitées comme des indicateurs de compromission potentiels. Un monitoring strict de ces plateformes s’impose dans les environnements sensibles.

> Compliquer la phase post-intrusion. Les opérations de piratage proprement dites restent manuelles. Réduire la surface d’attaque pour introduire de la friction lors du mouvement latéral, filtrer rigoureusement les fichiers LNK, ZIP ou ISO reçus par email, et maintenir les navigateurs à jour pour bénéficier de mécanismes comme l’App-Bound Encryption (ABE) sont autant de mesures qui forcent l’attaquant à utiliser des méthodes plus lourdes et donc plus détectables.

> S’appuyer sur des SOC ou MDR matures. Compte tenu de la cadence de production des variants (parfois un par jour), seule une surveillance 24/7 permet de distinguer le « bruit » généré par le vibeware des véritables intrusions critiques.

Le vibeware n’est pas l’avènement du cyberattaquant surhumain. C’est l’industrialisation du cyber-médiocre. Et c’est précisément pour cette raison qu’il mérite une attention soutenue.

*Image : © DR
*L’analyse des chercheurs de Bitdefender a révélé la présence récurrente du pseudonyme  « Nightmare  » sur plusieurs systèmes. Ce personnage semble jouer un rôle central dans le développement des malwares assistéw par l’IA

The post Vibeware : quand l’IA industrialise la cybercriminalité médiocre appeared first on Silicon.fr.

  •  

IA militaire : Anthropic officiellement interdit de Pentagone 

C’est une première dans l’histoire industrielle américaine : une entreprise nationale se voit infliger le même traitement que l’équipementier chinois Huawei.

Ce jeudi, le secrétaire à la Défense Pete Hegseth a désigné officiellement Anthropic comme un « risque pour la chaîne d’approvisionnement » de l’armée américaine. La décision est immédiatement effective : les 200 millions $ de contrats militaires sont désormais obsolètes.

Les conséquences financières restent, pour l’heure, plus limitées que certains l’avaient redouté. La désignation ne s’applique qu’aux usages de Claude dans le cadre direct de contrats passés avec le Pentagone. Microsoft, partenaire important d’Anthropic, a déjà indiqué que ses juristes avaient étudié le texte et conclu que Claude était utilisable dans ses produits commerciaux  (M365, GitHub, Azure AI Foundry)  pour tous les clients non liés à des contrats de défense. Amazon, investisseur majeur dans Anthropic, n’a pas encore réagi officiellement.

Fin du contrat avec Palantir

En revanche, la rupture avec Palantir est immédiate. La plateforme Maven Smart System, que l’armée américaine déploie notamment pour ses opérations en Iran, et qui s’appuie sur des flux construits avec Claude, devra trouver un substitut. Le Trésor et la General Services Administration ont annoncé leur intention de couper tout lien commercial avec Anthropic, en application d’une directive directe de Donald Trump exigeant d’expurger ses solutions de l’ensemble des contrats fédéraux.

Anthropic a annoncé qu’elle contesterait la décision en justice, estimant que la loi  (dite 10 USC 3252) exige du secrétaire à la Guerre de recourir aux « moyens les moins restrictifs nécessaires » pour protéger sa chaîne d’approvisionnement. En attendant le verdict des tribunaux, la scale-up assure qu’elle continuera à fournir ses modèles à l’armée américaine « au coût nominal », et avec le soutien de ses ingénieurs, aussi longtemps que ce sera légalement possible.

Les dégâts d’une note interne

La crise a pris une dimension politique supplémentaire avec la fuite d’une note interne de Dario Amodei, publiée par le site The Information.

Rédigé le jour où Donald Trump avait ordonné l’exclusion d’Anthropic des systèmes fédéraux et où OpenAI avait annoncé in extremis un accord avec le Pentagone, le mémo accusait le gouvernement de sanctionner Anthropic faute d’ « éloges de style dictateur » envers le Président.

Le PDG a fait son mea culpa : « C’était une journée difficile pour la société, et je m’excuse du ton de ce message. Il ne reflète pas mes vues réfléchies. » Il a aussi précisé qu’Anthropic n’était pas à l’origine de la fuite.

Image : © DR

The post IA militaire : Anthropic officiellement interdit de Pentagone  appeared first on Silicon.fr.

  •  

Pasqal lève 340 millions € et vise le Nasdaq

Pasqal, la start-up spécialisée dans les ordinateurs quantiques à atomes neutres, née en 2019 dans le sillage des travaux du Prix Nobel Alain Aspect, vient d’annoncer une levée de fonds d’au moins 340 millions €. Une somme qui la propulse d’un coup dans la cour des grandes licornes mondiales du secteur quantique.

Le montage est aussi ingénieux que la technologie qu’il finance. Le tour se décompose en deux volets d’environ 170 millions € chacun : d’un côté, une levée privée classique ; de l’autre, un financement convertible adossé à une fusion avec Bleichroeder Acquisition Corp. II, un SPAC américain coté. Au total, depuis sa création, Pasqal aura levé près de 600 millions €, un chiffre qui résume l’ampleur des ambitions.

Une valorisation à 2 milliards $

La transaction valorise Pasqal à 2 milliards $, faisant de la start-up de Palaiseau l’une des rares « licornes quantiques » au monde. Une marche franchie au pas de charge, qui s’explique autant par la maturité technologique de son offre ( des processeurs quantiques accessibles sur site ou via le cloud) que par son carnet de clients impressionnant : CMA CGM, OVHcloud, Thales, IBM, NVIDIA, Sumitomo.

Le tour d’investisseurs rassemble un plateau d’acteurs industriels et financiers qui reflète la dimension internationale prise par Pasqal : Parkway, Quanta Computer, LG Electronics, Temasek, l’European Innovation Council Fund, Saudi Aramco Entrepreneurship Ventures ou encore ISAI figurent parmi les nouveaux entrants, aux côtés de Bpifrance, fidèle au capital depuis 2021.

Nasdaq d’abord, Euronext ensuite

La stratégie boursière est doublement ambitieuse. Pasqal prévoit une première introduction au Nasdaq en 2026, via la fusion avec le SPAC Bleichroeder, avant de préparer une cotation sur Euronext Paris entre 2026 et 2027. Ce double ancrage vise à capter la liquidité des marchés américains, incontournables pour une deeptech qui se bat à armes égales avec des géants comme IBM Quantum ou IonQ, tout en maintenant une base actionnariale et décisionnelle en Europe.

L’opération, soumise aux approbations réglementaires habituelles et au dépôt d’un Form F-4 auprès de la SEC, n’est pas sans risques. Le marché des SPACs a connu ses turbulences ces dernières années, et la concurrence dans la course au quantique industriel s’intensifie. Pasqal mise sur la singularité de son approche — les atomes neutres — pour se différencier face aux architectures à base d’ions piégés ou de qubits supraconducteurs.

L’Essonne, QG mondial du quantique

Malgré l’envergure américaine de l’opération, Pasqal entend investir la majeure partie des fonds en France, et plus précisément à Palaiseau, dans l’Essonne, où est déjà implanté son site principal.

L’entreprise annonce vouloir doubler ses capacités de production en 24 mois et recruter 50 personnes supplémentaires sur 18 mois, soit une hausse des effectifs d’environ 20 % pour atteindre plus de 325 collaborateurs. La R&D sera également renforcée, avec un objectif affiché : disposer d’un ordinateur quantique tolérant aux pannes avant la fin de la décennie.

Un message politique autant qu’industriel, qui s’inscrit dans la logique du plan quantique national et des ambitions de souveraineté technologique européenne. Le futur ensemble issu de la fusion avec Bleichroeder restera d’ailleurs une entité de droit français, présidée par un ressortissant hexagonal, et Bpifrance conservera son siège au conseil d’administration.

Un test grandeur nature pour la deeptech européenne

La trajectoire de Pasqal sera scrutée bien au-delà du seul secteur quantique. Pour l’ensemble de l’écosystème deeptech européen, cette double cotation représente un test inédit : celui de la capacité d’un champion continental à lever des capitaux à l’échelle des exigences technologiques du moment, sans sacrifier son ancrage et ses valeurs.

Si l’opération réussit, elle démontrera qu’il est possible de rivaliser avec les poids lourds américains et asiatiques depuis Palaiseau et que le quantique européen n’est plus seulement une promesse de laboratoire. La balle est désormais dans le camp des marchés.

Photo : © DR

The post Pasqal lève 340 millions € et vise le Nasdaq appeared first on Silicon.fr.

  •  

Apple casse les prix avec le MacBook Neo à 599 dollars

C’est une rupture historique pour Apple qui a dévoilé le MacBook Neo.

Ce portable affiché à partir de 599 $ est soit 400 $ de moins que le MacBook Air, son entrée de gamme habituelle à 1 099 $. Pour atteindre ce positionnement tarifaire inédit, Apple a fait un choix technique radical : équiper le MacBook Neo d’une puce A18 Pro, le même processeur que celui embarqué dans les iPhone 16 Pro lancés en 2024.

Une puce iPhone dans un Mac

C’est une première dans l’histoire du Mac car jamais encore Apple n’avait utilisé une puce de smartphone dans un ordinateur portable. La machine, dispose d’un processeur six cœurs, d’un GPU cinq cœurs et de 8 gigaoctets de mémoire vive unifiée. Pas de configurations alternatives : les spécifications sont fixes.

L’écran de 13 pouces, le châssis en aluminium, le clavier complet, le trackpad, la caméra FaceTime 1080p et le Wi-Fi 6E font partie de la dotation standard. L’autonomie annoncée est de 16 heures, contre 18 heures pour le MacBook Air M5. L’ensemble qui pèse 2,7 livres (environ 1,2 kg) est disponible en quatre couleurs. Le tout tourne sous macOS, le même système d’exploitation que les Mac haut de gamme, avec une compatibilité totale avec les applications iPhone et Mac.

La version de base intègre 256 gigaoctets de stockage. Une version à 699 $ double la capacité et ajoute Touch ID. Les acheteurs dans le secteur éducatif bénéficient d’une remise de 100 $ sur chaque modèle, ramenant le prix d’entrée à 499 $ Quatre coloris sont au programme : citrus, silver, indigo et blush. Les précommandes sont ouvertes depuis mercredi, avec des livraisons attendues à partir du 11 mars.

Chromebooks et PC Windows dans le viseur

La cible est clairement identifiée : les utilisateurs de Chromebooks propulsés par Google et les PC Windows d’entrée de gamme, un segment où Microsoft peine à imposer ses appareils équipés de puces ARM malgré leurs promesses en matière d’autonomie. Apple vise aussi les étudiants, les primo-acheteurs et les entreprises en quête d’un point d’entrée abordable dans l’écosystème Mac.

« La vraie question n’est pas de savoir si Apple peut vendre un MacBook à ce prix, ce sera l’un des Mac les plus vendus de l’histoire si la marque tient ses promesses , mais comment elle parvient à équilibrer coût, performance et positionnement premium tout en préservant l’expérience qui définit le Mac », analyse Francisco Jeronimo, vice-président en charge des appareils clients chez IDC cité par Reuters.

John Ternus, le directeur de l’ingénierie matérielle d’Apple, a résumé l’ambition dans un communiqué : le MacBook Neo a été « conçu de fond en comble pour être plus accessible au plus grand nombre. »

Une offensive sur l’entrée de gamme

Le lancement du MacBook Neo s’inscrit dans une séquence dense pour Apple. Cette semaine, la firme a également dévoilé l’iPhone 17e à 599 $, avec davantage de stockage en configuration de base, et renouvelé ses MacBook Air et MacBook Pro avec les nouvelles puces M5 et des configurations de série étendues en mémoire. Autant de mouvements qui témoignent d’une stratégie d’ensemble : défendre les parts de marché d’Apple dans un contexte de PC en demi-teinte et de smartphone sous pression.

Car la conjoncture est complexe. Les marchés PC et smartphone restent très sensibles aux prix après plusieurs trimestres de demande erratique, et les fabricants naviguent en eaux troubles face à la flambée du coût des composants mémoire.

Le MacBook Neo, livré avec seulement 8 gigaoctets de RAM, moitié moins que le MacBook M4 et même en retrait par rapport aux 12 gigaoctets de l’iPhone 17 Pro , illustre les compromis imposés par cette pénurie mondiale de mémoire.

Reste à savoir si le pari sera tenu. Apple a déjà tâté du segment en commercialisant un MacBook Air à 699 $ chez Walmart avec une puce M1, mais c’était sur un modèle en fin de vie. Avec le MacBook Neo, c’est une machine inédite, conçue pour ce prix, qui entre en scène.

Image : © Apple

The post Apple casse les prix avec le MacBook Neo à 599 dollars appeared first on Silicon.fr.

  •  

Gouvernance du numérique : le MAGNum 2026 remplace le GAGSI

Disponible depuis le 3 mars 2026,Du GAGSI au MAGNum : une évolution structurelle

Changement de braquet pour la gouvernance du numérique :  le MAGNum (Modèle de maturité et d’audit de la gouvernance du numérique) 2026 prend la suite du Guide d’Audit de la Gouvernance du Système d’Information (GAGSI 2019), dont il dépasse largement le périmètre initial.

Là où le GAGSI se contentait d’identifier des bonnes pratiques, le MAGNum mesure désormais, de façon structurée et comparable, le niveau de maturité numérique global d’une organisation sur une échelle de 1 à 5.

Du GAGSI au MAGNum : une évolution structurelle

Le MAGNum (Modèle de maturité et d’audit de la gouvernance du numérique) est le fruit d’un travail collégial mené par une soixantaine d’experts issus des trois associations (auditeurs, DSI, architectes de systèmes d’information, consultants)  réunis au sein d’ateliers thématiques couvrant la stratégie, l’architecture, les données, les risques, l’IA, la cybersécurité, la RSE ou encore la gestion de projets.

Cette montée en ambition s’accompagne d’une refonte thématique pour intégrer les enjeux devenus incontournables depuis la dernière édition : intelligence artificielle, RSE, cybersécurité renforcée, conformité réglementaire et agilité organisationnelle.

« Le travail mené en commun en 2022-2023, qui a permis de clarifier les évolutions de la gouvernance du numérique, nous a convaincus de la nécessité de mettre à jour l’édition 2019. En intégrant le référentiel de mesure de la maturité de la gouvernance développé par ISACA France, nous avons rapproché de manière cohérente l’exercice d’audit et l’évaluation de la maturité », explique Véronique Beaupère, conseil en stratégie et gouvernance des systèmes d’information et administratrice d’ISACA France, qui a codirigé les travaux.

13 vecteurs de gouvernance pour couvrir l’ensemble du numérique

Le modèle s’articule autour de 13 vecteurs clés : Stratégie, Innovation, Risques & Conformité, RSE, Données & IA, Architecture, Portefeuille de projets, Projets, Ressources humaines, Prestataires & fournisseurs, Services, Budget & performance, et Marketing & communication. Pour chacun, le MAGNum présente les enjeux et les menaces, et décrit des bonnes pratiques déclinées en critères d’évaluation.

Le modèle se distingue par l’ajout d’un 13ème vecteur dédié à la RSE, ainsi que par l’intégration systématique de l’IA dans tous les vecteurs, en particulier celui des données.Pour chacun des 13 vecteurs clés  le MAGNum présente les enjeux et les menaces, et décrit des bonnes pratiques déclinées en critères d’évaluation.

L’outil intègre une grille de maturité assortie d’une restitution visuelle sous forme de radar, permettant de prioriser les actions, de mesurer les progrès dans le temps et de comparer différentes entités  (entreprises, filiales, business units). Le fichier Excel associé permet de noter le niveau de respect des exigences, de calculer automatiquement la maturité par vecteur et de générer ce radar à destination du management.

Un langage commun entre DG, DSI, métiers et auditeurs

L’un des objectifs affichés du MAGNum est de réconcilier des populations qui, souvent, ne parlent pas le même langage. En proposant un vocabulaire partagé entre les décideurs (DG, DSI, directions métiers), les auditeurs et les opérationnels, le modèle entend aligner gouvernance du numérique et stratégie d’entreprise.

Pour Djilali Kies, pilote du projet pour le Cigref, « nos trois associations, chacune par leurs travaux parallèles, ont acquis la conviction que la maîtrise de la gouvernance du numérique n’est aujourd’hui plus négociable pour les entreprises, c’est devenu un impératif. Nous avons donc décidé de regrouper nos efforts, avec pour objectif d’aller au-delà du guide d’audit et de produire cette fois plutôt un manuel de maturité, un référentiel de bonnes pratiques, un outil qui intègre déjà toutes les évolutions que l’on connaît à date du monde du numérique. »

Du côté des auditeurs internes, Guillaume Cuisset, associé KPMG et membre du Groupe Professionnel « Systèmes d’Information » de l‘IFACI, souligne l’apport concret pour leur pratique : « Maîtriser les questions de gouvernance du numérique est devenu un enjeu très important pour une direction d’audit interne. Ce nouveau modèle de maturité permet à l’auditeur interne de mieux comprendre le fonctionnement de la DSI, d’identifier les causes profondes des dysfonctionnements et de formuler des recommandations plus ciblées. C’est un outil qui va lui permettre de discuter, selon un même champ lexical, avec son DSI, son directeur du numérique, tout en s’appuyant sur un référentiel de bonnes pratiques qui est partagé par les deux métiers, puisqu’il aura été construit collégialement entre nos trois associations. »

Un outil conçu pour les équipes terrain

Le MAGNum repose sur trois principes fondateurs : le pragmatisme (les critères sont issus des retours de terrain des contributeurs), la lisibilité (un vocabulaire accessible à l’IT, aux métiers et aux fonctions support) et la facilité d’usage (des outils simples, y compris pour les non-spécialistes).

In fine, le modèle se positionne à la fois comme un outil de pilotage de la transformation numérique, un support d’objectivation des priorités d’investissement, un référentiel commun de dialogue entre DG, métiers, DSI, conformité et audit, et un moyen d’auto-évaluation régulière de la gouvernance du numérique.

Le MAGNum 2026 est disponible en téléchargement libre (version française) sur l’espace membres d’ISACA France : https://engage.isaca.org/parischapter/espacemembres/publications/publications343

*Les 13 vecteurs clés sont  : Stratégie, Innovation, Risques & Conformité, RSE, Données & IA, Architecture, Portefeuille de projets, Projets, Ressources humaines, Prestataires & fournisseurs, Services, Budget & performance, et Marketing & communication.

 

The post Gouvernance du numérique : le MAGNum 2026 remplace le GAGSI appeared first on Silicon.fr.

  •  

DeepIP lève 25 millions $ pour unifier l’IA dans le cycle de vie des brevets

DeepIP, plateforme d’IA dédiée aux brevets, annonce ce 3 mars une levée de fonds de 25 millions $ en Série B, portant son financement total à 40 millions $.

Le tour est co-mené par Korelya Capital, fonds fondé par Fleur Pellerin, ancienne ministre française de l’Économie numérique, et Serena, fonds connu pour avoir accompagné Dataiku. Les investisseurs historiques Balderton (Revolut) et Headline (Mistral AI) participent également à l’opération.

Fondée en 2024 par François-Xavier Leduc et Edouard d’Archimbaud, les deux cofondateurs de Kili Technology, une scale-up spécialisée en IA pour les entreprises du Fortune 500, DeepIP opère depuis New York et Paris.

Le problème que DeepIP cherche à résoudre

Si l’IA a commencé à s’imposer dans la pratique des brevets, la plupart des outils disponibles restent cloisonnés : chaque solution adresse une tâche isolée, obligeant les professionnels à naviguer entre des systèmes déconnectés et à transporter manuellement le contexte d’une étape à l’autre. Dans un domaine où précision et traçabilité sont critiques, cette fragmentation génère des frictions.

« La première vague d’IA appliquée aux brevets s’est principalement concentrée sur l’accélération de tâches individuelles », explique François-Xavier Leduc, CEO de DeepIP. « Or, la pratique des brevets repose sur un travail cumulatif, qui s’inscrit dans la durée, mobilise plusieurs équipes et implique de nombreuses décisions. »

Une intégration dans les outils existants

La réponse de DeepIP consiste à intégrer l’IA directement dans les environnements où le travail brevets s’effectue déjà ; Microsoft Word en tête ainsi que les plateformes de gestion d’actifs de propriété intellectuelle. L’objectif est de ne pas contraindre les équipes à changer leurs outils ou leurs processus. La société indique que cette approche génère jusqu’à 20 % d’adoption supplémentaire et 40 % d’usage en plus par rapport aux outils d’IA autonomes.

La plateforme revendique aujourd’hui plus de 400 cabinets et équipes IP (Propriété Intellectuelle) clients dans 25 juridictions et sur 5 continents, parmi lesquels Greenberg Traurig, Philips, Dexcom et Mewburn Ellis. Au total, plus de 40 000 dossiers auraient été traités via la plateforme.

Ce financement doit notamment permettre d’accélérer le développement de capacités d’IA agentique  afin d’aider les équipes à absorber des volumes croissants sans alourdir leur charge opérationnelle.

Pour Olivier Martret, Partner chez Serena, l’enjeu est aussi structurel : « Le marché mondial de l’IA appliquée aux brevets reste très fragmenté. Un positionnement plateforme est essentiel pour établir un nouveau standard. »

Photo : François-Xavier Leduc (droite) et Edouard d’Archimbaud (gauche) respectivement
CEO et CTO  © DR

The post DeepIP lève 25 millions $ pour unifier l’IA dans le cycle de vie des brevets appeared first on Silicon.fr.

  •  

IA militaire : en refusant le Pentagone, Anthropic conquiert le grand public

Il y a des refus qui coûtent cher. Et d’autres qui rapportent gros. Anthropic vient de vivre la seconde expérience…sur le terrain de la popularité.

En renonçant à un contrat avec le Département de la Défense américain, que son rival OpenAI a accepté dans la foulée, la scale-up dirigée par Dario Amodeï s’est retrouvée propulsée au sommet de l’App Store américain, dépassant ChatGPT pour la première fois de son histoire.

Tout commence début 2026, lorsque le Pentagone cherche à déployer des modèles d’intelligence artificielle sur ses réseaux classifiés. Anthropic est dans la course  jusqu’au moment où l’entreprise comprend que l’accord implique de lever certaines de ses « lignes rouges ».  Pas question pour Dario Amodei et son équipe d’autoriser la surveillance domestique de citoyens américains ni de cautionner le développement d’armes autonomes létales. Anthropic claque la porte. OpenAI, elle, entre.

Une négociation « bâclée » selon Sam Altman

La décision d’OpenAI provoque une réaction en chaîne que personne n’avait vraiment anticipée. À San Francisco comme à Londres, des manifestants s’installent devant les bureaux de la firme de Sam Altman.

Mais le coup le plus inattendu vient de l’intérieur : près de 500 employés d’OpenAI et de Google cosignent une lettre ouverte, intitulée  » Nous ne serons pas divisés »,  exprimant leur soutien aux positions d’Anthropic. Face à la tempête, le PDG d’OpenAI est contraint à une rare autocritique publique, admettant avoir « bâclé » la négociation, et promettant des amendements contractuels en urgence.

Ces amendements, obtenus sous pression, comportent désormais des interdictions explicites : les systèmes d’IA « ne doivent pas être utilisés intentionnellement pour la surveillance domestique » de ressortissants américains.

Les agences de renseignement comme la NSA se voient en outre privées d’accès sans modification contractuelle préalable, une garantie que le Pentagone lui-même a confirmée publiquement. Trop tard, aux yeux de nombreux observateurs.

OpenAI vs Anthropic : une opposition de principes

La progression est spectaculaire. Claude est devenue l’application d’IA gratuite la plus téléchargée sur l’App Store américain, reléguant ChatGPT à la deuxième position et Gemini au-delà. Sur Android, l’application grimpe jusqu’à la septième place générale. Les records quotidiens d’inscriptions s’enchaînent. Et les abonnés payants ont doublé en l’espace d’un an.

Le mouvement dépasse la simple satisfaction d’utilisateurs éclairés. Le groupe QuitGPT appelle activement au boycott de ChatGPT sur les réseaux sociaux, encourageant la désinstallation de l’application. Lors du dernier Super Bowl, Anthropic a diffusé une publicité de 60 secondes vivement commentée, dénonçant avec ironie l’intégration croissante de contenus sponsorisés dans ChatGPT.

OpenAI sous pression

Chez OpenAI, on renégocie désormais sous la contrainte. Les amendements annoncés par Sam Altman ressemblent moins à une position de principe qu’à une gestion de crise. Cela n’empêchera pas la question de fond de revenir : jusqu’où les géants de l’IA civile peuvent-ils s’engager dans des applications militaires sans perdre la confiance du grand public ?

La controverse ouvre également un débat plus large sur la régulation des IA militaires. Les craintes d’armes autonomes létales et de systèmes de « crédit social » inspirés du modèle chinois alimentent un mouvement international qui dépasse la simple querelle de chapelle entre deux poids lourds de l’IA. L’Europe, déjà engagée dans la rédaction de son AI Act, observe attentivement.

Pour Anthropic, le défi est désormais de transformer ce momentum en avantage durable. La scale-up reste à perte, dans une course à l’infrastructure qui exige des milliards de dollars d’investissement. Mais elle a prouvé une chose que peu de ses concurrents auraient osé parier : dans l’économie de l’attention de 2026, les principes peuvent rapporter.

Illustration : photo générée par l’IA

 

 

The post IA militaire : en refusant le Pentagone, Anthropic conquiert le grand public appeared first on Silicon.fr.

  •  

Mathias Michiels nommé Country Manager de Cohesity France

Cohesity renforce son dispositif français. L’éditeur américain, qui se positionne comme leader de la sécurisation des données par l’IA, annonce  la nomination de Mathias Michiels au poste de Country Manager France. Basé à Paris, il prend la tête des équipes commerciales locales avec pour ambition d’accélérer la croissance de Cohesity sur ce marché qu’elle considère comme stratégique.

Un parcours forgé dans les grandes ligues du logiciel

Mathias Michiels arrive avec plus de 15 ans d’expérience dans l’industrie du logiciel. Il a débuté dans la gestion de comptes chez Oracle et SAS Institute, avant de consacrer plus d’une décennie à VMware. Là, il a gravi les échelons jusqu’au poste de Senior Sales Director pour les solutions Tanzu sur la région SEMEA, à la tête d’une équipe transverse de 80 personnes. Un passage qui lui a permis de se forger une expertise reconnue sur les problématiques de cloud hybride, de modernisation applicative et d’espaces de travail numériques.

Cyber-résilience, le mot d’ordre

Sa mission chez Cohesity dépasse le simple pilotage commercial. Mathias Michiels devra imposer un changement de perception sur le marché : faire de Cohesity non pas une solution de protection des données parmi d’autres, mais un partenaire à part entière de la cyber-résilience des organisations capables, selon la promesse de l’entreprise, de survivre aux cyberattaques et d’en ressortir « plus fortes, plus intelligentes et plus fiables ».

Le contexte joue en sa faveur. « Nous sommes à un moment aussi critique pour les entreprises et organisations françaises face à l’accélération des cybermenaces », reconnaît lui-même le nouveau Country Manager. Pour Matthieu Gross, directeur des ventes pour l’Europe du Sud chez Cohesity, « son arrivée marque une étape clé pour notre croissance et notre succès continus dans la région ».

Photo : © DR

The post Mathias Michiels nommé Country Manager de Cohesity France appeared first on Silicon.fr.

  •  

iPhone 17e : le « cheval de Troie » à 599 $

En apparence, l’iPhone 17e ressemble à une bonne affaire. 599 $ pour un smartphone doté de la puce A19, de 256 gigaoctets de stockage et d’un écran OLED de 6,1 pouces ; soit exactement les performances de l’iPhone 17 standard, pour une centaine d’euros de moins.  Génereux, Apple ? Pas vraiment. Stratège, assurément.

Car derrière ce tarif soigneusement calibré sous la barre psychologique des 600 $ se cache une mécanique bien rodée : celle d’un écosystème conçu pour capter, retenir et monétiser ses utilisateurs sur le long terme.

Le hardware comme appât

Apple ne sacrifie pas ses marges par philanthropie. L’iPhone 17e fait certes quelques concessions, comme le taux de rafraîchissement revu à la baisse et le module photo simplifié,  mais il embarque les technologies maison qui font la différence : modem 5G interne, puce A19 compatible avec Apple Intelligence. Autrement dit, un appareil pleinement fonctionnel pour les usages d’aujourd’hui et de demain, vendu à un prix qui ferme la porte aux offres Android agressives entre 400 et 600 $.

Le doublement du stockage de base, passé de 128 à 256 Go à prix constant, est à cet égard révélateur. Il ne s’agit pas d’une largesse mais d’un calcul : plus de stockage, c’est plus de photos, de vidéos, d’apps, et donc un utilisateur plus engagé, moins enclin à migrer vers la concurrence.

Le vrai business model : les services

Pour comprendre la logique de ce lancement, il faut regarder au-delà du chiffre de vente unitaire. Apple perçoit aujourd’hui une part croissante de ses revenus via ses services : App Store, iCloud+, Apple Music, TV+, Arcade…

L’ARPU, le revenu moyen par utilisateur, y est structurellement supérieur à celui de ses rivaux, grâce à un écosystème verrouillé que les analystes qualifient volontiers de « jardin fermé ».

Chaque nouvel iPhone vendu, même à prix réduit, est une porte d’entrée dans cet univers. Un utilisateur converti à l’iPhone 17e aujourd’hui est un abonné iCloud potentiel demain, un client Apple TV+ après-demain. Sur cinq ans, la valeur vie client d’un acheteur de 17e dépasse largement celle que génère la marge hardware initiale.

Ne pas cannibaliser, mais élargir

Ce qui distingue l’iPhone 17e d’une simple entrée de gamme, c’est sa capacité à élargir le marché sans rogner sur les segments premium. Les iPhone 17 Pro et Pro Max, facturés jusqu’à 1 199 $, continuent d’adresser les consommateurs les moins sensibles au prix. Le 17e, lui, va chercher ceux qui hésitaient encore, les utilisateurs Android en renouvellement, les marchés émergents à pouvoir d’achat limité.

Apple réussit ainsi l’équilibre délicat qu’échouent souvent à tenir ses concurrents : un portefeuille cohérent, sans guerre interne des gammes.

Préparer l’après-smartphone

Il y a enfin une dimension prospective dans ce lancement. Équipé de l’A19 et de 256 Go, le 17e assure une compatibilité optimale avec les usages IA intensifs, la réalité augmentée et les futurs services data-lourds comme les lunettes AR, les interfaces connectées et véhicules autonomes qu’Apple prépare en coulisses. Massifier l’accès à ces technologies en amont, c’est s’assurer une base installée prête à adopter les prochains produits de l’écosystème.

L’iPhone 17e n’est donc pas un aveu de faiblesse d’Apple face à un marché saturé. C’est un investissement à long terme, déguisé en promotion. Tim Cook n’a pas bradé un iPhone. Il a planté un drapeau.

Image : © Apple

The post iPhone 17e : le « cheval de Troie » à 599 $ appeared first on Silicon.fr.

  •  
❌