Vue normale

Macrohard : Elon Musk relance son projet d’entreprise logicielle 100% IA

12 mars 2026 à 16:05

Elon Musk a officiellement lancé Macrohard, un projet qui vise à transformer la manière dont les logiciels sont conçus et exploités, en s’appuyant presque exclusivement sur des agents d’IA autonomes.

Un pied de nez à Microsoft… et bien plus

Macrohard est né au sein de xAI, la société d’intelligence artificielle d’Elon Musk, comme une “entreprise logicielle entièrement gérée par l’IA”, avec un nom volontairement sarcastique qui fait clairement référence à Microsoft.

Dès l’origine, il présente le projet comme une riposte directe aux géants du logiciel, avec l’ambition de simuler une société de type Microsoft qui “fait tout, sauf produire des objets physiques”.

Dans ses communications sur X, il insiste sur le fait qu’il ne s’agit pas d’un simple meme ou d’une blague marketing : Macrohard doit servir de démonstrateur à grande échelle de ce qu’une entreprise “full IA” peut faire, de la conception de produits à leur mise en production.

Macrohard or Digital Optimus is a joint xAI-Tesla project, coming as part of Tesla’s investment agreement with xAI.

Grok is the master conductor/navigator with deep understanding of the world to direct digital Optimus, which is processing and actioning the past 5 secs of…

— Elon Musk (@elonmusk) March 11, 2026

Digital Optimus, Grok et les agents autonomes

Macrohard, parfois présenté sous le nom de code Digital Optimus, s’appuie sur une architecture mêlant modèle de langage et agents opérationnels.

Le LLM Grok, développé par xAI, joue le rôle de “navigateur” ou de couche décisionnelle de haut niveau, là où les agents issus de l’écosystème Tesla exécutent les tâches concrètes, en traitant en temps réel le flux vidéo de l’écran, les frappes clavier et les mouvements de souris.

Techniquement, le projet vise à orchestrer des centaines d’agents spécialisés : génération de code, tests automatisés, génération de contenus, simulation d’utilisateurs, mais aussi gestion de processus métiers, le tout dans une boucle fermée où l’IA conçoit, exécute et corrige sans intervention humaine directe.

Pour supporter ces charges, Macrohard s’appuie sur les nouveaux accélérateurs AI4 de Tesla, présentés comme très peu coûteux, complétés par une infrastructure de serveurs basée sur du matériel Nvidia opérée par xAI.

Une alliance Tesla–xAI et une escalade capitalistique

Le lancement de Macrohard s’inscrit dans un rapprochement capitalistique entre Tesla et xAI, formalisé par un accord d’investissement de 2 milliards $ signé en début d’année. Musk y voit un prolongement naturel de sa stratégie consistant à repositionner Tesla comme une entreprise d’IA et de robotique avant d’être un constructeur automobile, en alignant robots physiques (Optimus) et “jumeaux” numériques (Digital Optimus / Macrohard).

Parallèlement, SpaceX a racheté xAI dans le cadre d’une opération valorisée 1250 milliards $ avec l’idée d’arrimer la prochaine génération de data centers, potentiellement orbitaux, à ces workloads IA massifs.

xAI a aussi sécurisé la marque Macrohard auprès de l’office américain des brevets dès 2025, couvrant un spectre large de logiciels liés à la génération de texte, de voix, de jeux vidéo et à l’automatisation de tâches logicielles.

Objectif : une entreprise logicielle “entièrement IA”

Dans sa communication, Musk résume Macrohard comme la tentative de “reproduire les opérations d’entreprises entières”, en particulier celles du logiciel. L’idée consiste à automatiser, via des agents IA, l’ensemble de la chaîne de valeur d’un éditeur : spécification produit, développement, QA, déploiement, exploitation et support, jusqu’à la gestion de la relation client simulée.

Macrohard se distingue des approches classiques d’“assistants pour développeurs” en visant explicitement le remplacement d’une grande partie des fonctions d’une société de logiciels, et non leur simple augmentation.

Pour Musk, c’est une réponse à l’alliance Microsoft-OpenAI : là où ces acteurs proposent des copilotages humains+IA, Macrohard se positionne sur le modèle inverse, celui d’une entreprise à majorité algorithmique supervisée par un nombre limité d’humains.

Impacts potentiels pour l’écosystème logiciel

Pour le secteur du logiciel, l’ambition de Macrohard soulève trois types de questions majeures
Si des agents peuvent répliquer une part significative du cycle de vie logiciel, la pression sur les marges des éditeurs traditionnels pourrait s’accroître, avec une redéfinition de la chaîne de valeur autour de l’orchestration d’IA plutôt que du développement humain.

Ensuite, la délégation de la production logicielle à des systèmes autonomes renforce les enjeux de vérification, de robustesse et de sécurité applicative, notamment face aux hallucinations, aux bugs indétectés et à la génération de vulnérabilités exploitables.

Enfin, la promesse d’une “entreprise logicielle sans développeurs” interroge sur l’évolution des métiers du développement, potentiellement déplacés vers la supervision d’agents, la gouvernance des données et la définition de politiques de contrôle.

The post Macrohard : Elon Musk relance son projet d’entreprise logicielle 100% IA appeared first on Silicon.fr.

Les milliards d’OpenAI alimentent aussi des acquisitions

12 mars 2026 à 15:14

Où vont tous ces capitaux que lève OpenAI ?

La principale réponse, c’est l’infrastructure. Aux dernières nouvelles, l’entreprise entend y consacrer jusqu’à 600 Md$ d’ici à 2030.

En filigrane, elle réalise des acquisitions. En voici une quinzaine, bouclées entre 2023 et 2026.

Promptfoo (mars 2026)

Cette start-up américaine née en 2024 a développé des outils qui automatisent le test et l’évaluation des applications IA. Elle revendique 130 000 développeurs actifs par mois.

Sa suite est open source – et elle le restera malgré l’acquisition par OpenAI, qui compte en intégrer les composantes dans sa plate-forme agentique Frontier.

Au socle open source (CLI + bibliothèque), Promptfoo a greffé une version commerciale. Elle donne accès à des fonctions collaboratives, à du monitoring, à l’API et à la personnalisation des profils d’attaques, entre autres.

OpenClaw (février 2026)

OpenAI n’a pas tant acquis la technologie derrière OpenClaw qu’embauché son créateur Peter Steinberger. L’intéressé avait déjà vendu une entreprise, constituée autour de son projet PSPDFKit (bibliothèque JavaScript pour l’édition de PDF).

OpenClaw sera confié à une fondation et demeurera indépendant, nous promet-on.

Crixet, Torch Health et Convogo (janvier 2026)

Critex, start-up américaine née en 2023, a développé un espace de travail pour la rédaction et la collaboration scientifiques, basé sur LaTeX. OpenAI l’a rendu gratuit et y a intégré GPT-5.2.

À l’image d’OpenClaw, Torch Health est un acqui-hire. La start-up avait été fondée en 2025 par des anciens de Forward Health. N’ayant pas réussi à imposer leurs « kiosques de santé » alimentés par IA, ils avaient pivoté vers une « mémoire médicale unifiée ». Plus précisément, l’orchestration des données du parcours des patients : résultats d’analyse en laboratoire, ordonnances, comptes rendus de rendez-vous médicaux… L’ensemble est venu nourrir ChatGPT Health. OpenAI y aurait investi 60 M$.

Acqui-hire également avec Convogo. Cette start-up est née en 2023. Elle a exploité l’IA pour faciliter le travail documentaire des consultants (analyse des entretiens, enquêtes et autres éléments de feed-back). Adobe, Expedia, HP, Logitech et X ont fait partie de ses clients.

Neptune (décembre 2025)

Né dans les années 2010, Neptune – marque de l’entreprise CodiLime – était initialement un outil DSML (data science et machine learning). Il a évolué pour couvrir plus largement le cycle l’entraînement des modèles d’IA. OpenAI a promis d’en intégrer les capacités dans sa stack.

Début mars, l’offre SaaS a fermé, comme les dépôts où récupérer les images de conteneurs. Les utilisateurs ont été invités à basculer vers des solutions comme GoodSeed, Pluto, Lightning AI, ZenML et Comet.

Software Applications Incorporated et Roi (octobre 2025)

En 2023, des anciens d’Apple fondaient Software Applications Incorporated. Ils allaient développer Sky, un assistant IA pour Mac. Sam Altman avait financé l’entreprise. OpenAI s’en est emparé pour enrichir ChatGPT.

Né en 2022, Roi avait développé un assistant pour la gestion des finances personnelles. Il a fermé en octobre, ses créateurs rejoignant OpenAI.

Alex et Statsig (septembre 2025)

Encore un acqui-hire avec Alex. Cette start-up américaine née en 2024 avait développé de quoi exploiter des modèles d’IA dans Xcode. C’était avant qu’Apple décide de créer sa propre interface (en 2025).
L’équipe a rejoint la division Codex d’OpenAI. Son produit existe toujours, mais ne reçoit plus de mises à jour et n’accepte pas de nouveaux utilisateurs.

L’acquisition de Statsig aurait coûté plus d’un milliard $. Avec elle, OpenAI s’est doté d’une solution d’A/B testing. Elle reste commercialisée, avec des références clients comme Atlassian, Microsoft et Decathlon. Il existe une version gratuite, limitée toutefois en volume mensuel d’événements et de rejeux de sessions, comme sur la durée de conservation des données. La version Pro donne par ailleurs accès à l’API. La version Enterprise, au SSO, à un support prioritaire et au déploiement natif sur data warehouse.

Crossing Minds (juin 2025)

Né en 2017, Crossing Minds accompagnait les entreprises du e-commerce dans l’évolution de leurs systèmes de recommandation. OpenAI n’était pas tant intéressé par cette techno que par ses développeurs. Qui, depuis l’acquisition, ont produit le module Company Knowledge, lequel permet à CharGPT de travailler sur des connaissances internes.

iO (mai 2025)

OpenAI aurait déboursé 6,5 Md$, intégralement en actions, pour s’emparer de cette start-up derrière laquelle on trouve des anciens d’Apple. Nommément, Jony Ive, ancien Chief Design Officer de la maison. Mais aussi Evans Hankey, qui fut son successeur. Et Tang Tan, ancien concepteur principal de l’iPhone.

Né en 2024, iO s’est donné l’objectif de repenser l’interaction homme-machine en concevant des interfaces physiques adaptées à l’usage de l’IA. Avant l’acquisition, il était déjà en partenariat avec OpenAI, qui était aussi son actionnaire.

Context.ai (avril 2025)

Née en 2023, cette start-up anglaise avait développé un outil d’analyse de la performance des applications IA, sur la base des interactions en langage naturel dans les interfaces de chat. Depuis le passage dans le giron d’OpenAI, ses produits n’existent plus. Une autre entreprise, à l’origine d’une plate-forme de développement de modèles, a repris le nom de domaine.

Multi et Rockset (juin 2024)

Remotion était une couche collaborative pour macOS. En août 2023, elle était devenue Multi, en conséquence d’un recentrage sur les équipes techniques. Elle fermerait en juillet 2024, peu après qu’OpenAI l’ait acquise.

Rockset était né en 2016 sous l’impulsion d’anciens de Facebook. Comptant dans son équipe un des fondateurs de Hadoop, elle avait développé une base de données orientée documents, reposant sur une déclinaison du moteurs RocksDB.
Le produit était présenté sous l’angle de la recherche hybride au moment où OpenAI a mis la main dessus, pour renforcer ses technologies de RAG. Sa commercialisation a pris fin en septembre 2024.

Global Illumination (août 2023)

Des anciens de Facebook, de Google et de Riot Games, entre autres, s’étaient réunis pour créer cette entreprise en 2023. Ils avaient conçu diverses « expériences numériques ». Il en reste aujourd’hui Biomes, un MMORPG open source.

Illustration générée par IA

The post Les milliards d’OpenAI alimentent aussi des acquisitions appeared first on Silicon.fr.

Comment l’IA générative remodèle le paysage des cybermenaces

12 mars 2026 à 13:26

L’IA générative ne crée pas de nouvelles formes d’attaques, elle les industrialise. C’est l’un des constats majeur de l’édition 2025 du   » Panorame de la cybermenace »  de l’ANSSI.

L’agence identifie plusieurs effets directs. D’abord, une hausse de la qualité des leurres utilisés dans les campagnes d’hameçonnage.

Les erreurs grammaticales et stylistiques qui permettaient auparavant à un utilisateur averti de repérer un e-mail malveillant tendent à disparaître. L’IA aide à produire des contenus plus convaincants, en plus grand nombre, avec une diversité accrue et  à moindre coût.

L’ANSSI note également une réduction du coût de maintien des infrastructures d’attaque, ce qui abaisse la barrière d’entrée pour des acteurs moins sophistiqués.

Des sites malveillants indétectables à l’œil nu

L’un des signaux les plus concrets relevés par l’agence concerne la création de sites web à l’apparence légitime, entièrement générés par des systèmes d’IA.

Ces sites servent à héberger des charges malveillantes ou à effectuer ce que l’ANSSI appelle de la caractérisation, autrement dit, le profilage technique des visiteurs avant de les compromettre.

Comment les équipes de l’agence ont-elles détecté la nature artificielle de ces sites ? Par une anomalie révélatrice : l’insertion de textes incohérents au beau milieu de paragraphes, sans lien logique avec le reste du contenu. Un signe subtil, qui confirme que la vigilance humaine reste, pour l’instant, un maillon essentiel de la détection.

Le cercle vicieux de la pollution des données d’entraînement

L’IA générative ne se retourne pas seulement contre les utilisateurs finaux, elle menace aussi l’intégrité des modèles eux-mêmes.

L’ANSSI identifie ici un risque systémique : la multiplication de contenus fallacieux sur Internet finit par contaminer les jeux de données utilisés pour entraîner les futurs modèles.

Le mécanisme est simple. Les grands modèles de langage apprennent à partir des données disponibles sur le web. Si ces données sont massivement polluées par des contenus artificiels et erronés  produits par d’autres IA, dans un but malveillant ou non, les modèles de nouvelle génération intègreront ces biais et inexactitudes dans leurs réponses.

Selon l’agence nationale, des acteurs malveillants exploitent délibérément ce vecteur : en inondant le web de contenus fabriqués, ils cherchent à altérer le comportement des services d’IA pour fausser leurs résultats. Les services d’IA générative sont ainsi devenus des cibles prioritaires à part entière.

L’IA dans les entreprises : une surface d’attaque qui s’élargit

L’intégration croissante de l’IA dans les flux opérationnels des entreprises entraîne mécaniquement un élargissement de leur surface d’attaque et les conséquences d’une compromission peuvent être sévères.

L’agence en identifie plusieurs catégories :

Confidentialité et intégrité des données. Un système d’IA compromis peut servir de point d’entrée vers le reste du système d’information, avec des risques d’exfiltration de données sensibles ou d’atteinte à l’intégrité des SI connectés.

La chaîne d’approvisionnement logicielle. C’est peut-être le risque le plus structurel identifié par l’ANSSI : la compromission d’un système d’IA spécialisé dans la génération de code pourrait introduire des vulnérabilités ou des portes dérobées dans le code produit, à l’insu total des équipes de développement. Une nouvelle forme d’attaque supply chain, silencieuse et difficile à détecter.

Les risques réputationnels et économiques. Toute fuite de données liée à un système d’IA fait peser un risque sur la confiance des clients, avec des implications potentiellement existentielles pour certaines organisations.

Les recommandations de l’ANSSI : cloisonner, surveiller, auditer

Pour répondre à ces risques, l’ANSSI a publié un guide dédié à la sécurisation des solutions d’IA générative basées sur des LLM.

Les grandes lignes sont les suivantes.

> Cloisonnement. C’est le principe central. L’agence recommande une isolation physique ou fonctionnelle des systèmes d’IA pour éviter qu’une compromission ne se propage. Pour les logiciels dont la conception n’est pas totalement maîtrisée par l’organisation, la recommandation est claire : les déployer sur un poste isolé et dédié.

> Surveillance des flux. Le cloisonnement seul ne suffit pas. Une surveillance active des échanges d’informations des composants d’IA est nécessaire pour détecter toute anomalie comportementale.

> Audits larges. L’ANSSI déconseille les audits à périmètre restreint, qui peuvent laisser dans l’ombre des chemins de compromission entre l’environnement IA et le SI bureautique.

> Ne pas tout miser sur les outils. L’agence pointe une limite importante : une stratégie de sécurité qui repose exclusivement sur des produits — EDR, MFA — est insuffisante. Les attaquants apprennent à contourner ces outils, ou à s’injecter directement dans les sessions utilisateurs légitimes.

> Préparer la gestion de crise. En cas d’incident, la priorité doit être l’isolation immédiate des systèmes compromis, combinée à la révocation des accès de l’attaquant. Cette séquence doit être anticipée dans les plans de continuité (PCA) et de reprise d’activité (PRA).

L’évolution rapide des usages de l’IA impose, selon l’ANSSI, une réévaluation régulière de la menace. Une mise en garde qui s’adresse autant aux RSSI qu’aux directions générales : l’IA n’est plus seulement un outil de productivité, c’est désormais un vecteur de risque à part entière, qui exige une gouvernance de sécurité adaptée.

Photo : © ANSSI 

The post Comment l’IA générative remodèle le paysage des cybermenaces appeared first on Silicon.fr.

Cybermenaces 2025 : l’ANSSI pointe la reconfiguration des attaques d’Etats

12 mars 2026 à 12:48

L’ANSSI ne minimise pas le tableau. Si le nombre de cas de rançongiciels est en légère baisse – 128 incidents traités en 2025 contre 141 l’année précédente –  l’agence nationale se garde bien d’y voir un signe d’accalmie.

La menace se reconfigure plutôt qu’elle ne recule : on observe une montée en puissance des exfiltrations de données sans chiffrement, exploitées à des fins de chantage ou revendues sur les marchés clandestins. La pression sur les victimes reste donc entière, même sans blocage des systèmes.

L’édition 2025 de son  » Panorame de la cybermenace  » confirme une tendance lourde : des acteurs étatiques, notamment nord-coréens et chinois, s’emparent désormais d’outils cybercriminels à des fins purement lucratives. La dichotomie traditionnelle entre espionnage d’État et cybercriminalité organisée s’efface, rendant l’attribution des attaques et la réponse institutionnelle bien plus complexes.

Espionnage, sabotage : les États toujours à la manœuvre

Du côté de l’espionnage stratégique, les groupes réputés liés à la Russie -Callisto, Laundry Bear – et à la Chine – Salt Typhoon, APT31 – maintiennent un effort soutenu pour compromettre les réseaux diplomatiques et les infrastructures critiques dans les secteurs des télécommunications et de l’énergie. Une activité de fond, discrète mais persistante, qui vise le long terme.

Le sabotage, lui, prend des formes plus visibles. Fin 2025, des opérations coordonnées ont ciblé les infrastructures électriques polonaises. Des groupes hacktivistes s’en prennent par ailleurs à de petites installations industrielles ( énergies renouvelables, réseaux d’eau ) pour des actions à fort retentissement médiatique. L’objectif n’est plus seulement de paralyser, mais aussi de créer un effet de sidération dans l’opinion publique.

L’arsenal technique se diversifie et s’industrialise

Sur le plan tactique, l’année 2025 confirme plusieurs évolutions structurelles. Les attaquants s’appuient de plus en plus sur des outils légitimes pour brouiller les pistes : logiciels d’accès à distance comme AnyDesk ou TeamViewer, services de stockage cloud tels que Google Drive ou MEGA. En se fondant dans le trafic normal des entreprises, ils compliquent considérablement la détection.

L’intelligence artificielle générative s’impose comme un accélérateur de menace. Elle améliore la qualité et la crédibilité des tentatives d’hameçonnage, permet de générer à grande échelle des sites malveillants à l’apparence légitime, et s’insère progressivement dans les flux opérationnels des organisations pour en exploiter les failles.

L’ingénierie sociale, de son côté, se raffine. Le SIM-Swapping, le MFA Fatigue – technique consistant à saturer un utilisateur de demandes d’authentification jusqu’à ce qu’il valide par lassitude – ou encore la méthode dite « Clickfix », qui pousse la victime à exécuter elle-même une commande malveillante, sont en forte recrudescence.

Ces méthodes misent sur la faillibilité humaine plutôt que sur des vulnérabilités techniques, ce qui les rend particulièrement difficiles à contrer par des outils seuls.

La surface d’attaque s’élargit : bordure, cloud, mobile

Les équipements de bordure – pare-feu, VPN, proxys – restent des portes d’entrée privilégiées. En 2025, des vulnérabilités affectant des solutions majeures comme Ivanti, Fortinet, Citrix ou Microsoft SharePoint ont été massivement exploitées. Ces points névralgiques, exposés directement sur Internet, constituent une cible de choix pour les attaquants cherchant un accès initial discret.

La chaîne d’approvisionnement numérique est également dans le viseur : compromettre un prestataire de services ou un hébergeur cloud permet d’atteindre simultanément un grand nombre de clients finaux.

De nombreux incidents ont ainsi concerné en 2025 le chiffrement de ressources hébergées dans le cloud, illustrant la vulnérabilité des environnements mutualisés.

Enfin, les terminaux mobiles ne sont pas épargnés. Les logiciels espions de type Pegasus ou Triangulation, exploitant des failles « zéro-clic » dans des applications populaires comme WhatsApp, continuent de cibler aussi bien les appareils personnels que professionnels.

Les 4 secteurs les plus exposés

L’éducation et la recherche arrivent en tête des secteurs victimes avec 34 % des incidents traités, devant les ministères et collectivités territoriales (24 %), la santé (10 %) et les télécommunications (9 %). Des secteurs souvent caractérisés par des ressources en cybersécurité limitées, des systèmes d’information hétérogènes et une forte exposition aux données sensibles.

Photo : © DR ANSSI

The post Cybermenaces 2025 : l’ANSSI pointe la reconfiguration des attaques d’Etats appeared first on Silicon.fr.

❌