Vue lecture

Anthropic vs Pentagone : la bataille de l’IA militaire qui fait trembler la Silicon Valley

C’est une guerre froide au cœur de la révolution de l’intelligence artificielle. D’un côté, Anthropic, fondée par d’anciens chercheurs d’OpenAI, qui se veut le champion de l’IA « responsable ». De l’autre, Pete Hegseth, secrétaire à la Défense de Donald Trump, déterminé à placer l’IA au cœur de toutes les opérations militaires américaines.

Entre les deux, des mois de négociations tendues, un contrat à 200 millions $, et désormais une menace de rupture fracassante, révélée par Axios.

L’ultimatum Hegseth

Selon le média en ligne, Pete Hegseth est « proche » de couper les liens commerciaux avec Anthropic et d’aller beaucoup plus loin : désigner la société comme un « risque pour la chaîne d’approvisionnement ». Une mesure radicale qui contraindrait tous les sous-traitants du Pentagone à choisir leur camp  et à couper à leur tour toute relation avec Anthropic s’ils veulent conserver leurs contrats militaires. Ce type de sanction est habituellement réservé aux adversaires étrangers, comme la Chine ou la Russie.

Un haut responsable du Pentagone a confié à Axios, sans prendre de gants : « It will be an enormous pain in the ass to disentangle, and we are going to make sure they pay a price for forcing our hand like this. » Traduction libre : ce sera une immense pagaille à démêler, et le Pentagone compte bien faire payer à Anthropic le fait de l’avoir contraint à agir.

Le porte-parole en chef du Pentagone, Sean Parnell, a confirmé  la mise sous revue de la relation : « Notre nation exige que ses partenaires soient prêts à aider nos soldats à gagner dans n’importe quel combat. En définitive, il s’agit de nos troupes et de la sécurité du peuple américain. »

La ligne rouge de Dario Amodei

Qu’est-ce qui a bien pu provoquer une telle escalade ? Le point de friction central est simple à énoncer, mais complexe à trancher : Anthropic refuse de laisser le Pentagone utiliser Claude « à toutes fins légales (all lawful purposes) ». La formule, apparemment anodine, recouvre en réalité deux lignes rouges qu’Anthropic refuse de franchir : la surveillance de masse des citoyens américains et les armes létales entièrement autonomes, c’est-à-dire des systèmes capables de tuer sans intervention humaine.

Mais selon une source proche du dossier citée par Axios, les hauts responsables de la défense étaient frustrés par Anthropic depuis un certain temps et ont « saisi l’opportunité de déclencher un affrontement public ». Autrement dit : la crise n’est pas totalement spontanée. Elle a été, au moins en partie, délibérément orchestrée par le Pentagone.

Pour justifier sa prudence, un responsable d’Anthropic a expliqué à Axios que les lois existantes « n’ont en aucune façon rattrapé ce que l’IA peut faire ». Le risque est concret : avec Claude, le Pentagone pourrait analyser en continu l’ensemble des publications sur les réseaux sociaux de chaque Américain, croisées avec des données publiques comme les listes électorales, les permis de port d’arme ou les autorisations de manifestation, pour établir automatiquement des profils de surveillance civile. Une perspective qui alarme bien au-delà d’Anthropic.

Claude, seul modèle dans les systèmes classifiés

L’ironie de la situation, c’est qu’Anthropic occupe aujourd’hui une position stratégique unique au sein de l’appareil militaire américain. Selon Axios, Claude est le seul modèle d’IA actuellement disponible dans les systèmes classifiés de l’armée américaine. Mieux : la technologie est profondément intégrée dans les opérations militaires, et huit des dix plus grandes entreprises américaines utilisent Claude dans leurs workflows. Rompre avec Anthropic serait, admet même un haut responsable de l’administration, « une complication » : « Les modèles concurrents sont tout simplement en retard sur les applications gouvernementales spécialisées. »

C’est précisément ce levier qu’a utilisé le Pentagone pour muscler ses négociations avec OpenAI, Google et xAI. Les trois ont accepté de lever leurs garde-fous pour les systèmes non classifiés. Le Pentagone se dit confiant qu’ils accepteront également le standard « all lawful use » pour les systèmes classifiés. Mais une source proche de ces discussions tempère : beaucoup de choses restent encore à décider avec ces trois acteurs. Et aucun n’est pour l’instant présent sur les réseaux classifiés — le domaine réservé d’Anthropic.

L’ombre de l’opération Maduro

Le bras de fer a pris une tournure plus dramatique encore avec la révélation que Claude avait été utilisé lors de l’opération militaire américaine ayant conduit à la capture du président vénézuélien Nicolás Maduro en janvier dernier, via le partenariat d’Anthropic avec la société de logiciels Palantir.

Selon Axios, un cadre d’Anthropic a pris contact avec un cadre de Palantir après coup pour s’enquérir de l’usage qui avait été fait de Claude lors du raid; Une démarche interprétée par les responsables du Pentagone comme une désapprobation implicite. « Cela a été soulevé d’une manière à suggérer qu’ils pourraient ne pas approuver l’utilisation de leur logiciel, car il y a eu des tirs réels lors de ce raid, des gens ont été blessés », a déclaré le responsable américain.

Anthropic a nié avoir « discuté de l’utilisation de Claude pour des opérations spécifiques avec le Département de la guerre », selon son porte-parole.

Face à l’escalade, Anthropic reste officiellement serein. « Nous avons des conversations productives, de bonne foi, avec le Département de la guerre pour continuer notre travail et traiter correctement ces problèmes nouveaux et complexes », a indiqué un de ses porte-parole. Et d’affirmer que l’entreprise restait « engagée dans l’utilisation de l’IA de pointe au soutien de la sécurité nationale américaine »  soulignant au passage qu’Anthropic a été le premier à déployer son modèle sur des réseaux classifiés.

The post Anthropic vs Pentagone : la bataille de l’IA militaire qui fait trembler la Silicon Valley appeared first on Silicon.fr.

  •  

Pourquoi Peter Steinberger quitte OpenClaw pour OpenAI

C’est un coup de poker gagnant pour OpenAI. Sam Altman a annoncé le 15 février sur X l’arrivée de Peter Steinberger, fondateur d’OpenClaw, pour piloter le développement des agents IA personnels au sein de l’entreprise de ChatGPT.

Peter Steinberger n’est pas un inconnu du milieu tech. Après 13 ans passés à la tête de PSPDFKit, il a lancé fin 2025 OpenClaw, un projet open-source qui a connu un succès fulgurant avec plus de 100 000 étoiles sur GitHub. Cette plateforme d’agents IA auto-hébergés permet d’exécuter des tâches réelles sur l’ordinateur de l’utilisateur via des applications de messagerie du quotidien comme WhatsApp, Telegram ou Slack.

Peter Steinberger is joining OpenAI to drive the next generation of personal agents. He is a genius with a lot of amazing ideas about the future of very smart agents interacting with each other to do very useful things for people. We expect this will quickly become core to our…

— Sam Altman (@sama) February 15, 2026

Contrairement aux chatbots classiques, OpenClaw agit comme un véritable assistant autonome. Il analyse les intentions, planifie des tâches, et mobilise plus de 100 compétences disponibles via ClawHub. De la gestion de fichiers à l’automatisation de navigateurs en passant par l’intégration de plus de 50 API, l’outil se veut polyvalent. Il tourne en arrière-plan, conserve une mémoire conversationnelle persistante et peut répondre de manière proactive.

OpenClaw reste un projet open-source

Mais le succès d’OpenClaw s’est accompagné de controverses. Plus de 400 compétences malveillantes ont été découvertes sur ClawHub, tandis que des autorités chinoises ont émis des alertes concernant des risques de cybersécurité, notamment autour des injections de prompts et de la gestion des permissions.

Pourquoi abandonner un projet viral pour rejoindre OpenAI ? Dans un billet de blog, Peter Steinberger s’explique : après 13 ans à diriger une entreprise, il préfère l’innovation à la gestion d’une grande structure. « Rejoindre OpenAI est le moyen le plus rapide de changer le monde et de démocratiser les agents IA à grande échelle », écrit-il, préférant cette voie à la construction d’une nouvelle licorne.

Sam Altman ne tarit pas d’éloges sur sa recrue, qu’il qualifie de « génie » porteur d’idées sur les systèmes multi-agents, amenés selon lui à devenir centraux dans les produits OpenAI. Peter Steinberger aurait décliné des offres de Meta – Mark Zuckerberg l’avait contacté personnellement – pour privilégier l’alignement de vision avec OpenAI.

Particularité de l’opération :  OpenClaw restera open-source et indépendant au sein d’une fondation soutenue par OpenAI, évitant ainsi une acquisition classique.


Les fonctionnalités principales d’OpenClaw

Fonctionnalité Description
Passerelle multicanal et routage Intégration simultanée à plusieurs messageries avec sessions isolées par agent ou expéditeur.
Extensible vers Mattermost et autres plateformes.
Exécution système Commandes shell, gestion de fichiers (lecture, écriture, organisation),
surveillance proactive (espace disque, prix en ligne),
automatisations planifiées (jobs).
Automatisation navigateur Contrôle via protocole CDP (Chrome DevTools), snapshots intelligents d’éléments interactifs,
remplissage automatique de formulaires, scraping web, captures d’écran,
sans sélecteurs CSS manuels, avec environnements isolés sécurisés.
Intégrations et compétences Plus de 50 API (calendriers, e-mails, domotique, finances),
génération automatique de nouvelles compétences,
MoltBook pour interactions sociales entre agents.
Mémoire et proactivité Contexte persistant entre sessions,
alertes automatiques,
décomposition intelligente des tâches complexes en étapes.

Photo : © DR – Peter Steinberger

The post Pourquoi Peter Steinberger quitte OpenClaw pour OpenAI appeared first on Silicon.fr.

  •  

Sommet de l’IA 2026 : comment l’Inde veut tracer sa voie

L’India-AI Impact Summit 2026, qui se tient cette semaine à New Delhi (16 au 20 février), quitte, pour la première fois, les capitales occidentales pour s’installer dans le Global South.

Pour la quatrième économie mondiale, c’est l’occasion d’afficher ses ambitions dans le développement de l’IA ne plus être un simple terrain d’application des technologies venues du Nord, mais s’imposer comme un acteur incontournable de la gouvernance mondiale.

Un écosystème IA en construction accélérée

Dans la continuité du Global IndiaAI Summit 2024, ce rendez-vous s’inscrit dans la mission IndiaAI, dotée d’un budget de 1,25 milliard $ sur cinq ans, pour bâtir un écosystème complet couvrant le calcul, les données, les modèles, les compétences, le financement et la gouvernance.

L’accès aux capacités de calcul sera au cœur des débats. Face à la concentration des GPU et des centres de données entre les mains de Nvidia et de quelques autres acteurs, l’Inde défend une vision radicalement différente : celle d’infrastructures de calcul considérées comme des biens publics numériques.

Le pays a mis en place un pool national de GPU subventionnés, accessible aux startups, laboratoires et administrations. Des annonces sur l’extension de cette couche de calcul partagé, de nouveaux investissements dans les data centers et des partenariats internationaux sont attendues. L’ambition est de faire de l’Inde une « capitale de l’inférence » pour les charges IA mondiales, tout en réduisant la dépendance aux hyperscalers internationaux.

Des LLMs souverains et plurilingues

Le sommet servira de vitrine aux premiers modèles de fondation souverains financés par la mission IndiaAI. Conçus pour les langues et contextes locaux, au moins partiellement ouverts à l’écosystème, plusieurs d’entre eux devraient être lancés pendant l’événement. Le focus : le plurilinguisme et les cas d’usage pour les administrations, services publics et l’inclusion financière.

L’Inde mettra également en avant AI Kosh, sa plateforme de données qui agrège plusieurs milliers de jeux de données publics. Les discussions porteront sur la qualité, la gouvernance et la souveraineté des données, avec en filigrane la question cruciale : comment concilier ouverture, protection de la vie privée et exigences de sécurité nationale ?

Une troisième voie régulatoire

Sur le plan réglementaire, New Delhi promeut une approche « techno-légale » pragmatique. Ni le modèle très prescriptif de l’Union européenne, ni le quasi laisser-faire américain. L’Inde a publié avant le sommet des lignes directrices de gouvernance visant à aligner l’IA sur des objectifs de développement, d’inclusion, de souveraineté numérique et de durabilité.

Les discussions aborderont les garde-fous autour des systèmes à haut risque, la transparence des modèles, la responsabilité des grandes plateformes, et les limites de l’auto-régulation. L’enjeu est de formuler des standards communs sur la « Safe and Trusted AI », portables ensuite dans les forums multilatéraux.

500 millions d’Indiens à connecter via l’IA

L’ambition sociale est aussi un rendez-vous majeur du sommet, un des “Seven Chakras”, qui constitue le programme durant les quatre jours.

Loin de présenter l’IA comme une menace pour l’emploi, le premier ministre Narendra Modi la considère comme un levier pour intégrer 500 millions d’Indiens supplémentaires à l’économie numérique et aux services publics, via des services IA orientés voix en langues locales.

Au programme : montée en compétences à grande échelle, soutien financier aux startups via des fonds dédiés, accès subventionné au calcul et aux données. Les débats devraient aussi porter sur les inégalités d’accès entre grandes plateformes et petites structures, entre Nord et Sud, et sur la mesure réelle de l’impact inclusif des politiques IA.

Un pont entre Nord et Sud

La géopolitique est également un sujet central. L’Inde veut jouer les « ponts » entre pays développés et en développement, s’appuyant sur son rôle dans le Partenariat mondial sur l’IA (GPAI) et les précédents sommets internationaux.

Des annonces sont attendues sur des cadres de coopération, des projets conjoints de R&D et le partage de ressources (calcul, datasets, standards techniques) avec d’autres pays du Sud. Les discussions avec la France ou le Brésil couvriront les risques de fragmentation des régulations, les tensions entre souveraineté numérique et interopérabilité, et la responsabilité des géants américains de l’IA.

En creux, New Delhi cherche à proposer une voie « tiers » dans la gouvernance mondiale de l’IA, plus orientée vers le développement et la justice numérique que vers la seule compétition technologique.

Illustration : © DR

The post Sommet de l’IA 2026 : comment l’Inde veut tracer sa voie appeared first on Silicon.fr.

  •  

OpenAI accuse DeepSeek de copier ses LLM

OpenAI tire la sonnette d’alarme auprès du Congrès américain. Dans un mémorandum adressé ce jeudi à la Commission spéciale de la Chambre des représentants sur la Chine, elle accuse son rival chinois DeepSeek d’exploiter de manière déloyale les modèles d’IA américains pour entraîner sa propre technologie.

Selon le document consulté par Bloomberg et Reuters, DeepSeek aurait recours à la « distillation », une technique qui consiste à utiliser les résultats d’un modèle d’IA établi pour former un nouveau modèle concurrent. OpenAI affirme avoir détecté « de nouvelles méthodes masquées » conçues pour contourner ses défenses contre l’utilisation abusive de ses systèmes.

Ces pratiques, largement liées à la Chine et occasionnellement à la Russie selon OpenAI, persistent et se sophistiquent malgré les tentatives de répression des utilisateurs qui violent les conditions d’utilisation.

DeepSeek aurait recours à la « distillation »

L’inventeur de ChatGPT indique que des comptes associés à des employés de DeepSeek ont développé des moyens de contourner les restrictions d’accès en passant par des routeurs tiers qui dissimulent leur origine. Des lignes de code auraient également été créées pour accéder aux modèles américains et en extraire les résultats « de manière programmatique ».

Fin septembre 2025, dans un article publié sur le site de Nature, une flopée d’auteurs présentés comme l’ »Équipe DeepSeek-AI » révélaient avoir dépensé 294 000 $ pour l’entraînement de son modèle R1. Un montant bien inférieur aux chiffres rapportés pour ses concurrents américains. Et de préciser que ce modèle axé avait été entraîné pendant un total de 80 heures sur un cluster de 512 puces H800, après une phase préparatoire utilisant des puces A100 pour des expériences sur un modèle plus petit.

En comparaison, Sam Altman, PDG d’OpenAI, déclarait en 2023 que l’entraînement des modèles fondamentaux avait coûté « bien plus » que 100 millions $ – mais sans donner de chiffres détaillés pour aucune de ses sorties.

Une menace commerciale et sécuritaire

Cette situation représente une double menace. Sur le plan économique d’abord : DeepSeek et de nombreux modèles chinois étant proposés gratuitement, la distillation pose un risque commercial majeur pour des entreprises comme OpenAI et Anthropic, qui ont investi des milliards de dollars dans leurs infrastructures et facturent leurs services premium.

Sur le plan sécuritaire ensuite : OpenAI souligne que le chatbot de DeepSeek censure les résultats sur des sujets sensibles pour Pékin, comme Taïwan ou la place Tiananmen. Lorsque des capacités sont copiées par distillation, les garde-fous disparaissent souvent, permettant une utilisation potentiellement dangereuse de l’IA dans des domaines à haut risque comme la biologie ou la chimie.

David Sacks, conseiller de la Maison Blanche pour l’IA, avait déjà alerté sur ces tactiques l’an dernier, affirmant que DeepSeek « extrayait davantage de jus » des puces anciennes tout en distillant les connaissances des modèles d’OpenAI.

La question des semi-conducteurs

Les préoccupations de Washington portent également sur l’accès aux puces d’IA avancées. Fin 2024, le président Trump a assoupli les restrictions, autorisant Nvidia à vendre ses processeurs H200 à la Chine – des puces moins performantes d’environ 18 mois par rapport aux versions Blackwell les plus récentes.

Des documents obtenus par la commission sur la Chine révèlent que Nvidia a fourni un soutien technique pour aider DeepSeek à améliorer et co-concevoir son modèle R1. Le modèle de base DeepSeek-V3 n’aurait nécessité que 2,8 millions d’heures de GPU H800 pour son entraînement complet – des processeurs qui ont pu être vendus à la Chine pendant quelques mois en 2023.

Illustration : image générée par l’IA

The post OpenAI accuse DeepSeek de copier ses LLM appeared first on Silicon.fr.

  •  

Anthropic lève 30 milliards $, porté par ses outils de codage

Anthropic vient de lever 30 milliards $, sous la forme d’une Série G, mené par le fonds souverain singapourien GIC et le fonds Coatue, pour une valorisation de 380 milliards $, soit plus du double de sa valorisation lors de la Série F de septembre 2025.

Ce tour de table, co‑mené par GIC et Coatue,  agrège un large spectre d’investisseurs de la tech et de la finance traditionnelle. Parmi eux figurent D.E. Shaw, Dragoneer, Founders Fund (Peter Thiel), ICONIQ et MGX, aux côtés de grands fonds de capital‑risque comme Sequoia Capital et Lightspeed Venture Partners. Il comprend aussi une partie des engagements déjà annoncés de Microsoft et Nvidia, qui avaient prévu d’investir respectivement jusqu’à 5 et 10 milliards $ dans Anthropic.

Il s’agit de l’une des plus grosses levées privées de l’histoire de la tech, derrière le tour d’environ 100 milliards $ actuellement visé par OpenAI.

Une levée de 30 Md$ d’ampleur historique

Anthropic revendique désormais un chiffre d’affaires “run‑rate” de 14 milliards $, ce qui signifie que, extrapolée sur douze mois, l’activité annuelle avoisine ce niveau. Cette trajectoire correspond à une croissance de plus de 10x par an sur chacune des trois dernières années.
Sa base de clients s’élargit rapidement vers les grandes entreprises. Le nombre de clients dépensant plus de 100.000 $ par an a été multiplié par sept en un an. Plus impressionnant encore : alors qu’une douzaine de clients seulement dépensaient plus d’un million de dollars il y a deux ans, ils sont désormais plus de 500. Huit des dix plus grandes entreprises américaines du classement Fortune sont aujourd’hui clientes de Claude.

Cette croissance a été alimentée par le lancement de plus de trente produits et fonctionnalités en janvier, dont Cowork, qui étend les capacités de Claude Code à d’autres domaines professionnels : analyse financière, ventes, cybersécurité ou découverte scientifique. Le lancement de plugins pour Cowork a d’ailleurs provoqué une onde de choc sur les marchés, entraînant un décrochage brutal des valeurs du secteur logiciel, les investisseurs s’interrogeant sur le potentiel disruptif de ces agents IA sophistiqués.

Selon le CEO Dario Amodei, environ 80% des revenus proviennent du segment entreprise, grâce aux usages de Claude dans l’automatisation documentaire, le support client, l’analyse de données et surtout le développement logiciel via Claude Code qui dépasse à lui seul un run‑rate de 2,5 milliards $, avec un nombre d’utilisateurs hebdomadaires actifs doublé depuis le début de l’année.

Objectifs : recherche, produits et infrastructure

Anthropic indique que les nouveaux capitaux financeront trois axes majeurs : la recherche sur les modèles “frontier”, le développement produit et l’expansion de l’infrastructure à grande échelle.

Sur le plan R&D, l’entreprise entend poursuivre le développement de modèles « alignés et sûrs », un positionnement historique d’Anthropic depuis ses débuts, avec une accélération attendue sur les capacités multimodales, le raisonnement avancé et les agents autonomes pour l’entreprise.

Côté produits, Anthropic veut consolider son avance dans l’IA “enterprise‑grade”, avec une feuille de route qui renforce Claude et Claude Code comme plateformes de travail quotidiennes pour les développeurs, les knowledge workers et les métiers.

Enfin, l’expansion d’infrastructure – en partenariat étroit avec Microsoft pour le cloud et Nvidia pour les GPU – vise à sécuriser les ressources de calcul nécessaires pour entraîner de nouveaux modèles et servir la demande croissante, dans un contexte de tension mondiale sur les capacités IA.

The post Anthropic lève 30 milliards $, porté par ses outils de codage appeared first on Silicon.fr.

  •  

Microsoft veut voler de ses propres ailes dans l’IA

Microsoft prend ses distances avec OpenAI. Mustafa Suleyman, patron de l’IA à Redmond, a confirmé au Financial Times un virage stratégique majeur en misant désormais sur « l’autosuffisance totale » en matière d’intelligence artificielle.

Ce repositionnement fait suite à une restructuration des liens entre les deux partenaires en octobre dernier. Concrètement, Microsoft développe désormais ses technologies les plus avancées en interne, plutôt que de s’appuyer sur un partenaire externe.

« Nous devons développer nos propres modèles de fondation, à la pointe absolue de la technologie, avec une puissance de calcul à l’échelle du gigawatt et certaines des meilleures équipes d’entraînement d’IA au monde », explique l’ancien cofondateur de Google DeepMind, arrivé chez Microsoft en 2024.

Microsoft investit massivement dans l’assemblage et l’organisation des vastes ensembles de données nécessaires à l’entraînement de systèmes avancés. Selon Suleyman, les premiers modèles développés en interne devraient être lancés «  dans le courant de l’année ».

Un pari à 140 milliards de dollars

Jusqu’à présent, Microsoft s’appuyait sur les modèles d’OpenAI pour alimenter ses outils d’IA, notamment l’assistant logiciel Copilot. L’accord négocié l’an dernier lui garantit une participation de 135 milliards $ dans la société inventeur de ChatGPT et l’accès à ses modèles les plus avancés jusqu’en 2032.

Mais cet arrangement offre également à OpenAI davantage de liberté pour rechercher de nouveaux investisseurs et partenaires d’infrastructure, le transformant potentiellement en concurrent direct.

Pour limiter les risques, Microsoft a diversifié ses investissements dans d’autres créateurs de modèles comme Anthropic et Mistral, tout en accélérant le développement de ses propres solutions.

L’ambition affichée : conquérir le marché des entreprises avec une « AGI de niveau professionnel » – des outils d’IA suffisamment puissants pour accomplir les tâches quotidiennes des travailleurs du savoir. « La plupart des tâches des cols blancs assis devant un ordinateur – avocat, comptable, chef de projet ou marketeur – seront entièrement automatisées par une IA d’ici 12 à 18 mois », prédit Suleyman.

Microsoft prévoit 140 milliards $ de dépenses d’investissement pour son exercice fiscal se terminant en juin, principalement pour construire l’infrastructure nécessaire à l’IA.

Au-delà de l’univers des entreprises, Microsoft cible aussi la santé avec l’objectif de construire une « superintelligence médicale » capable d’aider à résoudre les crises de personnel et les temps d’attente dans les systèmes de santé surchargés. L’année dernière, l’éditeur a dévoilé un outil de diagnostic qui surpasserait les médecins sur certaines tâches.

The post Microsoft veut voler de ses propres ailes dans l’IA appeared first on Silicon.fr.

  •  

De WhatsApp à MAX : Moscou met fin au chiffrement des communications

Le couperet est tombé ce jeudi. WhatsApp, propriété de Meta, est désormais totalement inaccessible en Russie. « En raison du refus de Meta de se conformer à la législation russe, une telle décision a effectivement été prise et mise en œuvre », a déclaré Dmitri Peskov, porte-parole du Kremlin, suggérant aux Russes de basculer vers MAX, la messagerie nationale soutenue par l’État.

Cette mesure, qui touche plus de 100 millions d’utilisateurs, marque l’aboutissement de six mois de pression sur l’entreprise américaine et s’inscrit dans une stratégie plus large du pouvoir russe : créer et contrôler une infrastructure de communication « souveraine » où les géants technologiques étrangers se soumettent ou disparaissent.

La fin d’un modèle de sécurité

Le blocage ne se limite pas à un simple changement d’application. Il fait basculer les utilisateurs d’un système de « confidentialité par conception » vers un modèle de « transparence par défaut » vis-à-vis des opérateurs et des autorités.

WhatsApp repose sur un chiffrement de bout en bout : les clés cryptographiques sont générées et stockées uniquement sur les terminaux des utilisateurs. Même l’opérateur ne peut pas lire le contenu des messages. Pour intercepter des communications, il faut compromettre directement le téléphone de l’émetteur ou du destinataire, une opération complexe et coûteuse qui rend impraticable toute surveillance de masse.

MAX et les autres messageries promues par Moscou utilisent un chiffrement de  » transport »  ( entre l’appareil et le serveur) mais les messages restent lisibles en clair côté serveur. Cette architecture rouvre la porte à un accès direct par l’opérateur ou les services de sécurité, à des mandats légaux intrusifs et à des risques d’attaques internes.

Dans ce nouveau schéma, toute la sécurité repose sur un serveur central qui concentre contenus, métadonnées, carnets d’adresses et historiques. Les chercheurs ayant audité MAX décrivent une application qui collecte et journalise massivement les interactions, au point d’en faire « un outil de surveillance plutôt qu’une messagerie zéro connaissance ».

Cette concentration augmente mécaniquement la surface d’attaque : une seule brèche dans l’infrastructure peut exposer à grande échelle conversations et profils d’utilisateurs. Elle facilite aussi les opérations de corrélation : identifier qui parle à qui, quand, depuis où, même sans inspecter systématiquement le contenu.

Conformité avec la loi « Yarovaïa »

Le basculement s’inscrit dans le cadre de la loi  » Yarovaïa « , qui oblige les fournisseurs à remettre aux services de sécurité contenus et métadonnées, et à fournir les moyens techniques d’accès aux flux chiffrés. Les protocoles de chiffrement de bout en bout modernes rendent ces obligations difficilement applicables sans « casser » la cryptographie, ce qui explique l’hostilité particulière de Moscou envers WhatsApp, Signal et les « secret chats » de Telegram.

Avec MAX, ces exigences sont facilement satisfaites : accès direct aux bases de données, requêtes ciblées, voire écoute en temps quasi réel. Pour les utilisateurs, cela se traduit par un affaiblissement des garanties de confidentialité, même si le cadre est présenté politiquement comme un renforcement de la « sécurité » nationale.

Des risques pour les profils sensibles

Pour un particulier peu exposé, le changement se traduit par une perte diffuse de vie privée et un accroissement du traçage comportemental. Mais pour les journalistes, les ONG, les opposants ou les professions réglementées, la disparition d’un canal chiffré augmente significativement les risques : identification de sources, mise sous surveillance ciblée, remontée de réseaux entiers à partir de simples métadonnées.

Le contournement via VPN, seule alternative pour continuer à utiliser WhatsApp, introduit ses propres dangers. Des services non fiables peuvent intercepter le trafic, injecter des malwares ou affaiblir les vérifications de certificats, ouvrant la voie à des attaques de type « homme du milieu ».

Meta, désigné comme organisation extrémiste en Russie, a dénoncé cette mesure : « Tenter d’isoler plus de 100 millions d’utilisateurs d’une communication privée et sécurisée est un pas en arrière qui ne peut que conduire à moins de sécurité pour les gens en Russie. »

Depuis décembre, de nombreux Russes ne pouvaient déjà plus utiliser WhatsApp qu’avec un VPN. Le blocage complet marque une nouvelle étape dans la construction d’un internet « souverain » où le Kremlin contrôle non seulement les contenus, mais aussi l’architecture même des communications numériques.

The post De WhatsApp à MAX : Moscou met fin au chiffrement des communications appeared first on Silicon.fr.

  •  

ESN : la fin de l’âge d’or des valorisations, l’IA générative comme nouvel eldorado

Le réveil est un peu brutal pour les Entreprises de Services Numériques (ESN) françaises. Selon le dernier baromètre réalisé par la banque d’affaires Crescendo Finance en partenariat avec le cabinet PAC, le secteur entre dans une phase de normalisation après des années de surchauffe.

Après un pic d’activité M&A (fusions-acquisitions) en 2022 avec 73 opérations recensées, le marché montre des signes de fatigue : la croissance des services IT en France devrait même se contracter de 2,1% en 2025.

Le blues des multiples

Le temps où les vendeurs dictaient leurs conditions semble s’éloigner. Les multiples d’EBITDA *, qui avaient grimpé jusqu’à 13,9x en 2022 pour les acquéreurs stratégiques, sont retombés à 9,2x en 2024. « Le contexte économique affecte de façon symétrique les multiples », tempère l’étude, notant que pour la première fois depuis 2021, la valorisation des ESN françaises est repassée légèrement sous l’indice Argos des PME non cotées.

Pourtant, cette moyenne cache de profondes disparités. C’est un marché à deux vitesses : d’un côté, l’infogérance classique, dont les multiples plafonnent péniblement à 6,3x EBITDA. De l’autre, les « chouchous » des investisseurs : la cybersécurité et la Data/IA, qui continuent d’afficher des valorisations insolentes, dépassant parfois les 15x l’EBITDA pour les cibles les plus pointues.

IA générative : 3,2 milliards € en ligne de mire

Si le marché global ronronne, l’IA générative (IAGen) agit comme un booster de croissance. PAC estime que les dépenses externes liées à l’IAGen en France vont littéralement exploser, passant de 425 millions € en 2024 à 3,2 milliards € dès 2028.
« 72% des entreprises font de l’adoption de l’IA générative une priorité absolue», souligne l’étude. Cette « frénésie » pousse les grands prédateurs du secteur à sortir le carnet de chèques pour ne pas rater le train de l’IA agentique.

Accenture et Capgemini sont en première ligne, avec des budgets d’investissement se comptant en milliards de dollars pour renforcer leurs compétences via des acquisitions ciblées.

Les fonds d’investissement à l’affût des ETI

Le paysage des transactions reste dominé à 75% par les « corporates » (les ESN elles-mêmes), qui privilégient les petites cibles de moins de 15 millions € de chiffre d’affaires pour muscler leurs expertises locales. Les fonds d’investissement, bien que représentant seulement 25% des volumes, jouent les arbitres sur les dossiers plus matures : 47% de leurs jetons sont misés sur des entreprises réalisant plus de 50 millions € de CA.

Pour 2025, les experts prévoient une stabilisation. L’assouplissement des conditions de financement et la nécessité impérieuse de souveraineté numérique devraient soutenir un volume d’opérations honorable. Mais pour séduire les acheteurs, il faudra désormais plus qu’une simple croissance organique : la récurrence des revenus (modèle SaaS) et la maîtrise de la data sont devenues les nouveaux juges de paix de la valorisation.

*EBITDA est l’abréviation de « bénéfice avant intérêts, impôts, dépréciation et amortissement ».

The post ESN : la fin de l’âge d’or des valorisations, l’IA générative comme nouvel eldorado appeared first on Silicon.fr.

  •  

Naval Group et Thales accélèrent dans l’IA de défense souveraine

Naval Group vient d’annoncer son entrée au capital de CortAIx, l’accélérateur d’IA créé par Thales en 2024, marquant une étape stratégique dans la convergence des industries françaises de défense sur le terrain de l’IA.

L’opération, dont le montant reste confidentiel, représente 20% du capital de la division française de CortAIx. Elle s’inscrit dans un engagement pluriannuel de coopération entre les deux groupes, tant sur le volume d’activité que sur les cas d’usage. Naval Group rejoint par ailleurs le conseil d’administration de l’entité, consolidant ainsi une alliance structurante autour des technologies critiques de demain.

Une IA au cœur des systèmes de combat collaboratif

L’objectif affiché est de mutualiser les compétences en matière d’intelligence artificielle appliquée au combat collaboratif, aux systèmes d’aide à la décision et à la guerre électronique. Quinze ingénieurs de Naval Group rejoindront dès mars les équipes de CortAIx, qui comptent quelque 800 spécialistes répartis sur cinq sites. Un nouveau centre de recherche à Ollioules (Var) ouvrira dès mai, renforçant la proximité entre les équipes R&D des deux partenaires.

« Innover dans le secteur de la défense requiert de plus en plus d’intelligence artificielle. C’est un démultiplicateur de performance opérationnelle », souligne Éric Papin, directeur technique de Naval Group dans les Echos. De son côté, Mickael Brossard, directeur de CortAIx, évoque une « mutualisation très forte » destinée à accélérer la montée en puissance de solutions souveraines et sécurisées.

Des technologies critiques pour la souveraineté européenne

Les ingénieurs de CortAIx développent depuis deux ans des modèles d’IA destinés à des applications sensibles : capteurs du Rafale, radars de surveillance, reconnaissance faciale ou pilotage d’essaims de drones. Ces technologies opèrent à la fois dans des environnements embarqués et en data centers sécurisés, en partenariat avec des acteurs français tels que Mistral AI.

Thales et Naval Group pourront également s’appuyer sur la puissance de calcul du supercalculateur inauguré par l’Agence ministérielle pour l’intelligence artificielle de défense (Amiad), livré en 2025 par HPE et Orange, pour le traitement de données classifiées.

Un écosystème français en plein foisonnement

Cette union s’inscrit dans un contexte d’effervescence autour de l’IA de défense en France. Dassault Aviation a déjà noué un partenariat technologique avec CortAIx fin 2025, tandis que sa participation dans la start-up Harmattan AI, valorisée 1,4 milliard $, témoigne de l’émergence d’un tissu industriel compétitif.

L’État, actionnaire à 62 % de Naval Group et 27 % de Thales, joue un rôle d’amplificateur dans cette stratégie de souveraineté industrielle et numérique. L’articulation de ces champions nationaux autour de CortAIx vise à positionner la France parmi les leaders mondiaux de l’IA de défense, à l’heure où les budgets militaires européens connaissent une croissance sans précédent.

The post Naval Group et Thales accélèrent dans l’IA de défense souveraine appeared first on Silicon.fr.

  •  

IA dans le BTP : la révolution en mode test

Entre enthousiasme et prudence, le secteur du Bâtiment et des Travaux Publics apprivoise progressivement l’intelligence artificielle. Si les outils d’IA générative se diffusent rapidement dans les fonctions administratives, l’intégration sur les chantiers reste encore balbutiante. Une étude inédite de l’Observatoire des métiers du BTP révèle les freins et les opportunités d’une transformation qui s’annonce inéluctable.

Menée début 2025 auprès de 621 dirigeants d’entreprises, elle révèle que moins de 10% des structures déclarent utiliser actuellement des solutions d’IA. Un retard ? Pas vraiment. Plutôt une prudence de bon aloi dans un secteur habitué à des transformations progressives et où l’échec d’un outil peut se mesurer en vies humaines, pas en lignes de code.

Car si 36% des entreprises se disent intéressées par un déploiement futur, les grandes manœuvres n’ont pas encore commencé. « On a vu des applications très intéressantes par des gens qui travaillent avec des monuments historiques », raconte le dirigeant d’une TPE du Bâtiment. « Ils font voler des drones qui scannent les façades et génèrent le plan au millimètre près. Mais ça intéresse peu de monde pour l’instant. »

L’IA générative s’invite dans les bureaux

Si c’est une révolution qui se profile, elle commence par les tâches les moins valorisées : la bureautique. Les assistants comme ChatGPT ou Copilot se diffusent à bas bruit dans les fonctions supports. Rédaction de mails, correction de documents, synthèse de réunions : autant de corvées administratives allégées par ces outils accessibles sur smartphone.

« Les conducteurs de travaux s’enregistrent avec ChatGPT pendant les réunions de chantier : l’IA fait les synthèses et prépare les mails automatiquement », explique le dirigeant d’une PME spécialisée dans la construction de maisons individuelles. « Ce sont avant tout des gens de terrain, avec une vraie valeur ajoutée sur le contrôle et le management des équipes. Là, clairement, ça leur libère du temps. »

L’usage peut même devenir plus sophistiqué. Une comptable d’une TPE a ainsi créé des « petits robots » avec l’IA générative : désormais, lorsqu’une facture arrive dans la GED, le système ouvre le document, identifie l’artisan et le chantier, crée les dossiers nécessaires et range le tout. « Un vrai changement de paradigme dans notre gestion quotidienne », se félicite le dirigeant.

Ces usages « masqués » ou  » Shadow AI » soulèvent toutefois la question de l’encadrement par l’entreprise. Car sans politique claire, chacun bidouille dans son coin avec des outils grand public dont la sécurité des données n’est pas garantie.

Sur les chantiers, des promesses encore lointaines

Au-delà des bureaux, les applications métiers restent largement au stade exploratoire. L’IA pourrait pourtant transformer en profondeur la planification des chantiers. Grâce à des algorithmes prédictifs, certaines solutions analysent en temps réel l’avancement des travaux, les conditions météorologiques et la disponibilité des ressources pour anticiper les retards et réajuster automatiquement les plannings.

La sécurité constitue un autre terrain d’expérimentation prometteur. Des systèmes de vision par ordinateur, intégrés à des caméras sur casques ou engins, peuvent identifier le non-port d’équipements de protection ou la présence de personnes dans des zones interdites. Objectif : passer d’une prévention réactive à une approche prédictive, capable d’anticiper les accidents avant qu’ils ne surviennent.

Mais ces innovations restent confinées aux grands groupes et à quelques projets pilotes. « L’IA ne pourra être efficace que si elle s’applique dans un environnement un peu plus normé et organisé que ce qui est l’ordinaire du chantier dans notre secteur », tempère un dirigeant de PME.

Les freins à l’adoption : technique, économique et culturel

Premier obstacle : la qualité des données. L’IA ne peut délivrer son potentiel que si elle s’appuie sur des informations fiables et bien structurées. Or, dans nombre d’entreprises du BTP, les données sont éparpillées, mal rangées et stockées dans des formats hétérogènes. « Pour avoir de la donnée exploitable, il faut que ça soit structuré, organisé, propre. Dans le monde du Bâtiment aujourd’hui, on est très, très loin. » martèle un directeur technique d’ETI.

Deuxième frein : l’absence d’interopérabilité entre les nombreux logiciels du secteur. Les différents outils numériques utilisés – devis, BIM, suivi de chantier – communiquent mal entre eux, rendant difficile la mutualisation des données. « J’ai plein de solutions différentes : pour les devis, la facturation, la banque, la comptabilité… mais rien n’est interconnecté », déplore un autre dirigeant. « Je passe 70% de mon temps à faire des passerelles entre les outils. »

L’équation économique reste incertaine, particulièrement pour les TPE-PME qui composent 94% du tissu entrepreneurial du Bâtiment. Pour ces structures, déployer une solution d’IA nécessite un budget conséquent avec un retour sur investissement difficilement chiffrable. « Ce que nos entreprises ont besoin de voir pour sauter le pas, c’est le retour sur investissement », souligne une organisation professionnelle. « Et pour l’instant, ceux qui viennent leur proposer des produits ne donnent pas vraiment d’éléments là-dessus. »

Enfin, les obstacles culturels ne sont pas négligeables. Dans un secteur historiquement attaché au savoir-faire manuel et à la transmission par le compagnonnage, l’idée qu’un algorithme puisse orienter des décisions techniques suscite des réticences. « Le savoir-faire, c’est du concret, du geste, de la mémoire, du ressenti », résume un chef d’entreprise. « Si on délègue trop aux outils automatiques, on va finir par perdre cette intelligence du terrain. »

L’ancienneté des dirigeants constitue un autre frein. Dans un secteur où beaucoup de patrons approchent de la retraite, l’investissement dans des technologies dont ils ne verront pas les fruits complets ne semble pas prioritaire. « On a toute une catégorie de dirigeants vieillissants qui se disent que bientôt ils ne seront plus là, alors pourquoi s’embêter à intégrer de l’innovation », observe un organisme de formation.

Les compétences, clé de voûte de la transformation

Face à ces défis, la montée en compétences apparaît comme le levier prioritaire. Mais avant même de parler d’IA, le secteur doit d’abord rehausser son niveau général de littératie numérique. « Les entreprises ne sont pas prêtes parce qu’elles n’ont pas fait cette partie de structuration en amont », constate un formateur. « Il y a toute une politique de la donnée à mettre en place avant d’intégrer tout ça. »

En 2024, Constructys a financé 1 762 actions de formation sur l’intelligence artificielle, un chiffre qui a bondi à 4 406 en 2025. Mais l’analyse des intitulés révèle une offre encore très centrée sur la sensibilisation générale, avec peu de contextualisation aux métiers du BTP. La majorité des formations privilégient la découverte de l’IA plutôt que la montée en compétences opérationnelles.

Les besoins identifiés s’articulent autour de trois niveaux. D’abord, un socle minimal de culture numérique : maîtrise des règles de gestion documentaire, gouvernance de la donnée, sensibilisation aux usages collaboratifs. Ensuite, des compétences intermédiaires d’ingénierie d’usage et de conduite du changement, pour identifier les cas d’usage pertinents et mobiliser les équipes. Enfin, des compétences avancées sur l’interopérabilité, l’automatisation et la sécurité des systèmes.

Une transformation par paliers

L’étude de l’Observatoire des métiers du BTP dessine les contours d’une transformation qui se fera par étapes. Les fonctions supports seront les premières concernées, avec une évolution vers des rôles de supervision et de contrôle des contenus produits automatiquement. Les métiers de la conception, déjà familiers du BIM, intégreront progressivement des outils d’IA pour automatiser les tâches répétitives de vérification et de détection d’erreurs.

Sur les chantiers, les conducteurs de travaux deviennent peu à peu des « data managers locaux », surveillant des tableaux de bord numériques tout en conservant leur expertise terrain. Les métiers de la maintenance évoluent vers la maintenance prédictive, où l’anticipation des pannes prime sur le dépannage.

« On est dans une phase où les outils sont là, mais il faut apprendre à s’en servir », résume un directeur technique. « L’IA n’est pas un pilote automatique : c’est un assistant. Le vrai savoir-faire reste dans la coordination humaine. »

Source : Observatoire des métiers du BTP, Étude sur la perception et l’intégration des outils d’intelligence artificielle dans les entreprises du BTP, janvier 2026

The post IA dans le BTP : la révolution en mode test appeared first on Silicon.fr.

  •  

Workday : retour aux sources avec Aneel Bhusri pour redresser la barre

Workday vient d’annoncer un changement de direction spectaculaire. Aneel Bhusri, co-fondateur de l’éditeur, reprend immédiatement les commandes en tant que CEO, remplaçant Carl Eschenbach. Une décision qui intervient après une année désastreuse en Bourse : le titre a plongé de 41% sur douze mois.

Carl Eschenbach quitte non seulement son poste de directeur général mais également son siège au conseil d’administration. Il restera néanmoins conseiller stratégique auprès de Bhusri. Son départ lui vaudra une indemnité de 3,6 millions $, assortie d’une acquisition accélérée de ses stock-options en cours.

Pour Aneel Bhusri, le retour se monnaie cher : 135 millions $ en actions, soumises à des conditions de temps et de performance, auxquels s’ajoute un salaire de base de 1,25 million $, selon les documents transmis à la SEC.

Une histoire de succession complexe

L’histoire récente de Workday ressemble à un jeu de chaises musicales. Bhusri avait co-fondé l’entreprise en 2005, exercé seul la fonction de CEO entre 2014 et 2020, avant d’accepter un partage du pouvoir. Eschenbach avait été nommé co-CEO fin 2022, aux côtés du fondateur, avant que ce dernier ne se retire en 2024.

« Nous entrons dans l’un des moments les plus décisifs de notre histoire. L’IA est une transformation plus importante que le SaaS – et elle définira la prochaine génération de leaders du marché », déclaré Aneel Bhusri dans un communiqué officiel.

Workday, spécialisé dans les logiciels de gestion des ressources humaines et autres tâches administratives, fait partie de ces éditeurs d’applications qui peinent à convaincre Wall Street à l’ère de l’intelligence artificielle. Sous la direction d’Eschenbach, l’entreprise avait affiché une nouvelle priorité à la rentabilité, annonçant des suppressions de postes et promettant d’utiliser l’IA pour rationaliser ses propres opérations.

La semaine dernière encore, Workday avait annoncé le licenciement d’environ 400 employés, soit 2% de ses effectifs de 20.600 personnes fin octobre, dans le but de mieux investir dans ses domaines prioritaires.

Le retour de Bhusri apparaît comme un pari : celui de retrouver l’ADN entrepreneurial et l’agilité technologique face aux bouleversements de l’IA. Reste à savoir si cette cure de jouvence suffira à reconquérir les investisseurs.

The post Workday : retour aux sources avec Aneel Bhusri pour redresser la barre appeared first on Silicon.fr.

  •  

Bruxelles menace Meta de sanctions d’urgence sur WhatsApp

Les régulateurs de la concurrence de l’Union européenne ont franchi ce lundi une nouvelle étape dans leur bras de fer avec Meta.

La Commission européenne a envoyé une communication des griefs au groupe américain et envisage d’imposer des mesures provisoires pour éviter un « préjudice grave et irréparable  », aux concurrents, une démarche similaire à celle adoptée par l’autorité italienne de la concurrence en décembre.

« Nous devons protéger une concurrence effective dans ce domaine dynamique, ce qui signifie que nous ne pouvons pas permettre aux entreprises technologiques dominantes d’exploiter illégalement leur position pour s’octroyer un avantage déloyal  », a déclaré Teresa Ribera, commissaire européenne à la concurrence, dans un communiqué.

Meta a mis en œuvre sa nouvelle politique le 15 janvier, n’autorisant que son propre assistant Meta AI sur WhatsApp conteste fermement l’intervention de Bruxelles. « Il existe de nombreuses options d’IA et les utilisateurs peuvent y accéder via les app stores, les systèmes d’exploitation, les appareils, les sites web et les partenariats industriels », a répondu un porte-parole de Meta. « La logique de la Commission suppose à tort que l’API WhatsApp Business est un canal de distribution clé pour ces chatbots. ».

Une enquête aux enjeux considérables

La décision d’imposer ou non des mesures provisoires dépendra de la réponse de Meta et de l’exercice de ses droits de défense, a précisé l’autorité de régulation. Teresa Ribera a justifié cette démarche : « C’est pourquoi nous envisageons d’imposer rapidement des mesures provisoires à Meta, afin de préserver l’accès des concurrents à WhatsApp pendant l’enquête et d’éviter que la nouvelle politique de Meta ne nuise irrémédiablement à la concurrence en Europe. »,

Selon les règles européennes, les régulateurs peuvent ordonner aux entreprises de cesser temporairement des pratiques commerciales suspectes, bien que ces demandes puissent être contestées devant les tribunaux luxembourgeois de l’UE.

Les amendes éventuelles pour violation du droit antitrust européen peuvent atteindre 10% du chiffre d’affaires annuel mondial, même si elles atteignent rarement ce niveau, particulièrement lorsque les infractions présumées sont de courte durée.

Un tribunal brésilien a suspendu le mois dernier une mesure provisoire de l’agence antitrust du pays contre Meta sur la même question. Parallèlement, les flux d’informations sur la plateforme de messagerie WhatsApp sont tombés sous le coup des règles européennes de modération de contenu le mois dernier, lorsque la Commission a désigné ces canaux ouverts comme une « très grande plateforme en ligne » au titre du Digital Services Act.

The post Bruxelles menace Meta de sanctions d’urgence sur WhatsApp appeared first on Silicon.fr.

  •  

Super Bowl 2026 : Anthropic a défié OpenAI avec une pub anti‑pub

Le Super Bowl ne se joue pas seulement sur le terrain. Cette année, c’est une bataille d’intelligences artificielles qui s’est également disputée à la mi‑temps.

Anthropic, le créateur du modèle Claude, a diffusé une publicité de 60 secondes vivement commentée, dénonçant avec ironie l’intégration croissante de contenus sponsorisés dans ChatGPT, le produit vedette d’OpenAI.

Le spot d’Anthropic, titré « Keep the Signal Clear », illustrait un utilisateur s’adressant à une IA dont les réponses deviennent progressivement parasitées par des messages commerciaux. La voix off concluait : « Une IA devrait vous écouter, pas vous vendre. »

Sans jamais nommer OpenAI, la référence était évidente : depuis janvier 2026, OpenAI teste aux États‑Unis des “réponses sponsorisées” dans ChatGPT, en partenariat avec plusieurs marques. Cette initiative, présentée comme « une manière d’assurer la durabilité du service », a suscité de vifs débats sur la neutralité de l’IA conversationnelle.

OpenAI défend son modèle économique

Dans un communiqué post‑Super Bowl, OpenAI a réaffirmé sa volonté de « maintenir un équilibre entre accessibilité et soutenabilité », estimant que la publicité contextuelle pouvait financer l’usage gratuit sans compromettre la qualité des réponses. L’entreprise a précisé que les contenus sponsorisés resteraient « clairement identifiés » et « non intrusifs ».

Mais cette explication ne convainc pas tout le monde. De nombreux observateurs estiment que la confiance dans les assistants IA repose sur leur impartialité perçue, un capital symbolique qu’une banalisation de la publicité pourrait fragiliser.

Anthropic sur la ligne « éthique »

En misant sur cette campagne coûteuse (estimée à près de 14 millions $ pour une minute d’antenne), Anthropic cherche autant à renforcer sa notoriété grand public qu’à se positionner comme la conscience morale du secteur. L’entreprise met en avant un modèle économique centré sur les abonnements professionnels et les partenariats sans publicité.

Selon ses dirigeants, le message visait à rappeler qu’« une IA responsable doit être un outil de pensée libre de toute influence commerciale ». Une pique qui, dans le contexte actuel d’une course effrénée à la rentabilité des modèles, tombe à point nommé.

The post Super Bowl 2026 : Anthropic a défié OpenAI avec une pub anti‑pub appeared first on Silicon.fr.

  •  

Achats publics numériques : la souveraineté devient un critère de choix

 » Nous ne voulons pas de subventions…nous avons besoin de commandes publiques « . Combien de fois  n’avons-nous pas entendu cette revendication chez les éditeurs français de logiciels et les startups de la French Tech ?

La donne est peut-être en train de changer à la faveur d’un nouveau paradigme : ériger la souveraineté en critère structurant des achats de l’État, au même niveau que la performance, la sécurité ou les coûts.

Une circulaire doit être signée très prochainement par le Premier ministre pour valider ce principe même si le texte laisse encore de larges marges d’interprétation.  L’objectif affiché est de mieux maîtriser les dépendances technologiques de l’administration et utiliser les 4,5 milliards € annuels de commande publique comme levier de structuration de l’offre française et européenne.

Cette circulaire fait suite à plusieurs mois de concertation interministérielle et de dialogue avec la filière industrielle du numérique, qui réclamait un cadre plus lisible.

Mutualiser d’abord, développer en dernier recours

Le texte consacre un principe de sobriété et de rationalisation. Avant tout achat, les services de l’État devront suivre trois étapes obligatoires : rechercher d’abord une solution déjà disponible au sein du secteur public, dans une logique de mutualisation entre administrations. À défaut, se tourner vers le marché en appliquant les nouveaux critères de sélection. Et seulement en dernier ressort, lancer un développement « à façon ».

Cette hiérarchie vise à limiter la prolifération de projets sur mesure, jugés coûteux et redondants. Elle s’articule avec la doctrine « Cloud au centre de l’État » et s’appuie sur des outils opérés par l’administration comme Tchap, Visio ou FranceTransfert, basés sur des logiciels libres.

La souveraineté en tête de liste

Changement majeur : dans la grille de sélection des offres logicielles, la souveraineté apparaît désormais en première position, devant la performance, la sécurité, les coûts, la réversibilité, la maintenabilité et la durabilité. Un renversement symbolique qui place la maîtrise des dépendances technologiques au cœur de la décision.

Selon Bercy, cette souveraineté se décline en trois dimensions : l’immunité aux droits extraterritoriaux, pour limiter les risques liés aux législations étrangères ; la capacité de substitution, garantissant la réversibilité et évitant l’enfermement propriétaire ; et la maîtrise technologique, privilégiant les technologies placées sous contrôle de l’État ou d’acteurs alignés avec ses objectifs.

Le texte ne consacre pas formellement de préférence européenne, alors qu’Anne Le Hénanff, ministre déléguée chargée de l’Intelligence artificielle et du Numérique, la défend dans ses interventions publiques. Une ambiguïté qui laisse une marge d’interprétation aux acheteurs tout en envoyant un signal aux industriels du Vieux Continent.

Un cadre sans mode d’emploi précis

L’ambition affichée se heurte toutefois à une limite majeure : l’absence de barème. Aucune pondération chiffrée n’est associée aux critères fixés, notamment la souveraineté. Chaque acheteur public conserve donc une large autonomie pour apprécier l’importance de ce critère, ce qui pourrait conduire à des pratiques hétérogènes entre ministères et opérateurs.

La question du contrôle et du suivi reste également peu encadrée. Les dispositifs actuels, comme l’avis préalable de la DINUM pour les projets dépassant 9 millions d’euros, sont déjà partiellement contournés ou appliqués après coup.

Par ailleurs, la doctrine doit encore s’aligner avec les textes européens en préparation sur la commande publique, notamment la révision de la directive de 2014 qui vise elle aussi des objectifs d’autonomie stratégique. Les acheteurs devront arbitrer entre ces orientations nationales, les contraintes budgétaires et la pression opérationnelle.

Une opportunité pour l’écosystème français

Pour les éditeurs français et européens, cette circulaire constitue néanmoins un signal politique majeur. L’État annonce qu’il privilégiera les solutions maximisant l’immunité juridique, la réversibilité et la maîtrise technologique, sans exclure les acteurs extra-européens. Les fournisseurs capables de démontrer ces atouts par leur modèle d’hébergement, leur gouvernance ou leurs engagements de portabilité disposeront d’un argument différenciant.

Pour les acheteurs publics, le cadre de décision devient plus lisible, tout en préservant une part d’appréciation dans la mise en œuvre. Ils devront intégrer cette dimension de souveraineté dans leurs stratégies de sourcing et documenter davantage leurs choix pour sécuriser juridiquement leurs décisions.

La réussite de cette doctrine se mesurera à double titre : à la montée en puissance de l’écosystème numérique français et européen dans les marchés publics, et à la capacité de l’administration à réduire ses dépendances critiques sans sacrifier l’innovation ni la qualité de service.

The post Achats publics numériques : la souveraineté devient un critère de choix appeared first on Silicon.fr.

  •  

Dassault Systèmes et Nvidia s’allient pour développer l’IA industrielle

Dassault Systèmes et Nvidia annoncent un partenariat de long terme pour construire une plateforme d’IA industrielle destinée à renforcer les jumeaux virtuels et à développer des « Industry World Models ».

Leur vision commune est de faire de l’IA un composant essentiel de l’ingénierie, de la production et de la recherche, au-delà des simples preuves de concept. Il prolonge une collaboration de plus de 25 ans entre les deux groupes, initiée autour du logiciel de modélisation 3D, Catia, sur GPU et étendue progressivement à la simulation physique accélérée.

L’ambition affichée est de définir une architecture industrielle partagée pour une IA qualifiée de « mission-critique », ancrée dans la physique, les contraintes techniques et le savoir industriel plutôt que dans des données généralistes.

Un socle technologique combinant Virtual Twin et Omniverse

Dassault Systèmes apporte sa plateforme 3DEXPERIENCE et ses technologies de Virtual Twin, qui couvrent la conception avec Catia, la fabrication avec Delmia et l’ingénierie système. Nvidia fournit son infrastructure d’IA comprenant GPU, CUDA et RTX, ses modèles ouverts Nemotron, ses bibliothèques logicielles accélérées, ainsi que sa plateforme Omniverse dédiée à la simulation physique et à la collaboration 3D.

Les deux entreprises évoquent le concept de « physical AI », une intelligence artificielle capable de comprendre et de raisonner sur le monde physique en s’appuyant sur des modèles validés scientifiquement et des contraintes de domaine. Les bibliothèques d’IA physique d’Omniverse seront intégrées dans les jumeaux virtuels Delmia pour permettre des systèmes de production autonomes et « software-defined ».

Des Industry World Models et des assistants virtuels

Les Industry World Models, des modèles de référence par secteur combinant jumeaux virtuels, données opérationnelles et modèles d’IA, sont destinés à servir de base pour la conception, la simulation et le pilotage de systèmes dans divers secteurs : aéronautique, automobile, sciences de la vie, robotique ou matériaux.

Sur la plateforme 3DEXPERIENCE, ces Industry World Models alimenteront des « Virtual Companions », des agents IA intégrés aux outils métier et capables de fournir des recommandations contextualisées. Basés sur les modèles Nemotron de Nvidia et les modèles de domaine de Dassault, ces assistants sont conçus pour aider ingénieurs, chercheurs et opérateurs à explorer des scénarios, optimiser des conceptions ou ajuster des paramètres de production en temps réel.

Des « AI factories » sur trois continents

Le partenariat inclut un volet infrastructure avec le déploiement d’« AI factories » sur trois continents via Outscale, le cloud de Dassault Systèmes. Ces centres seront équipés de technologies Nvidia pour entraîner et exécuter les modèles d’IA utilisés par les jumeaux virtuels, tout en répondant aux exigences de souveraineté des données, de protection de la propriété intellectuelle et de conformité réglementaire.

De son côté, Nvidia utilisera les outils de modélisation et d’ingénierie système de Dassault pour concevoir ses propres AI factories, notamment celles basées sur la future plateforme Rubin, en s’appuyant sur l’architecture Omniverse DSX Blueprint. Cette réciprocité illustre une approche où chacun applique les modèles et outils de l’autre à ses propres infrastructures.

Plusieurs entreprises sont déjà présentées comme « early adopters » de cette convergence entre Virtual Twin et IA accélérée : Lucid Motors, Bel, l’OMRON Group ou encore le National Institute for Aviation Research. Dans le secteur automobile, l’objectif est d’accélérer le passage du concept à la production tout en améliorant la précision prédictive des simulations de véhicules et de chaînes de traction.

Image : © Dassault Systemes

The post Dassault Systèmes et Nvidia s’allient pour développer l’IA industrielle appeared first on Silicon.fr.

  •  

IA générative : la nouvelle arme cyber qui inquiète l’ANSSI

L’intelligence artificielle générative n’est pas seulement un outil de productivité pour les entreprises. Selon une étude publiée par l’ANSSI, elle est une arme supplémentaire dans l’arsenal des cybercriminels et des groupes d’espionnage étatiques.

L’agence nationale de la sécurité des systèmes d’information  s’est penchée exclusivement sur les intelligences artificielles génératives. Parmi eux, les fameux grands modèles de langage (LLM) incarnent ce qu’on appelle l’usage dual de l’IA : un même outil peut servir à défendre comme à attaquer.

Certes, l’ANSSI n’a pas encore identifié de cyberattaque totalement autonome pilotée par une IA contre des cibles françaises. Mais l’agence le dit clairement : l’IA permet déjà aux attaquants d’améliorer « significativement le niveau, la quantité, la diversité et l’efficacité » de leurs opérations, surtout contre les systèmes mal protégés.  Les modèles sont désormais utilisés tout au long de la chaîne d’attaque, de la reconnaissance initiale jusqu’à l’exploitation finale des données volées.

Des faux profils générés en masse

Les opérateurs de modes opératoires d’attaque (MOA) réputés liés à l’Iran auraient utilisé l’IA générative Gemini de Google à des fins de reconnaissance contre des experts et organisations d’intérêt. En 2024, les opérateurs du MOA Charcoal Typhoon, réputé lié à la Chine, auraient quant à eux utilisé des services d’IA générative pour générer du contenu d’hameçonnage, ciblant notamment Taïwan, la Thaïlande, la Mongolie, le Népal et la France.

Entre 2024 et 2025, les opérateurs du MOA Lazarus, réputé lié à la Corée du Nord, auraient également eu recours à l’IA générative pour créer de faux profils d’entreprises et d’employés sur les réseaux sociaux. L’ANSSI a par ailleurs observé plusieurs sites Internet apparemment générés par IA, servant à héberger des charges malveillantes ou à effectuer de la caractérisation, c’est-à-dire du profiling des internautes. De nombreux cybercriminels exploitent également des services de deepfakes pour quelques dizaines de dollars à des fins d’usurpation d’identités.

Malwares « intelligents »

En 2024, le MOA TA547 aurait utilisé un script PowerShell généré par un LLM pour compromettre une entreprise allemande. Des chercheurs de l’université de New York ont par ailleurs développé PromptLock, un prototype de rançongiciel utilisant dynamiquement des prompts pour générer des scripts à l’exécution, permettant d’exfiltrer et de chiffrer les données.

Google a également identifié Promptflux, un code malveillant polymorphique particulièrement sophistiqué qui prompte l’API Gemini pour réécrire entièrement son code source toutes les heures afin d’éviter la détection. Le développement de tels codes suggère cependant des capacités relativement sophistiquées de la part des développeurs.

En février 2025, le département de cyberdéfense ukrainien a affirmé que des opérateurs russes auraient utilisé des services d’IA générative pour analyser massivement les données exfiltrées de leurs victimes et identifier les informations d’intérêt.

L’IA n’est pas encore autonome… mais ça progresse vite

L’utilisation de l’IA générative pour certaines étapes complexes de la chaîne d’infection, comme la recherche de vulnérabilités, reste limitée. Pour l’instant. L’identification d’une faille de sécurité et le développement de la preuve de concept associée dépendent encore largement de compétences humaines. La plupart des systèmes d’IA générative commerciaux restent trop instables et trop limités pour identifier des vulnérabilités jour-zéro rapidement et en quantité. À l’heure actuelle, aucun cas avéré d’exploitation de vulnérabilité jour-zéro découverte grâce à un modèle d’IA générative n’a été documenté.

Mais les choses bougent très vite. En novembre 2024, le système BigSleep a démontré son efficacité pour la recherche de vulnérabilités dans des codes sources. Plus inquiétant encore, en juin 2025, le système XBOW, développé par d’anciens ingénieurs de GitHub, a soumis des centaines de vulnérabilités, dont certaines critiques, sur différents programmes de bug bounty, après avoir scanné simultanément des milliers d’applications web. La course est lancée.

42 groupes de hackers d’État utilisent déjà l’IA

Un large spectre d’acteurs offensifs utilise désormais les services d’IA générative. En janvier 2025, Google révélait que son modèle Gemini avait été utilisé entre 2023 et 2024 par des groupes cybercriminels ainsi que par au moins 10 modes opératoires d’attaque liés à l’Iran, 20 liés à la Chine, 9 liés à la Corée du Nord et 3 liés à la Russie.

L’utilisation de ces technologies varie considérablement selon les objectifs et le niveau de maturité des acteurs. Pour les groupes les plus sophistiqués, l’IA générative devient un nouveau cadre pratique, similaire à l’utilisation d’outils malveillants génériques comme Cobalt Strike ou Metasploit. Elle leur permet notamment de générer du contenu en masse dans plusieurs langues, de développer du code non signant, d’effectuer des recherches sur des cibles plus rapidement, et potentiellement d’automatiser complètement une chaîne d’attaque à court ou moyen terme.

Pour les hackers moins expérimentés, l’IA générative constitue avant tout un formidable outil d’apprentissage et offre un gain de productivité en répondant à des questions techniques. Dans tous les cas, le verdict est sans appel : l’IA générative permet aux acteurs malveillants d’agir plus rapidement et à plus grande échelle.

WormGPT et FraudGPT

Les modèles d’IA générative comme ChatGPT disposent de garde-fous techniques empêchant leur utilisation à des fins illégales. Les acteurs malveillants cherchent néanmoins à contourner ces limitations par des méthodes d’ingénierie de prompt incluant des formulations ambiguës, des mots-clés spécifiques ou l’utilisation de scénarios fictifs. Ces techniques évoluent constamment et constituent un défi majeur pour les développeurs.

Le « jailbreak » : contourner les barrières morales de l’IA

Dès 2023, des chercheurs en sécurité parvenaient déjà à détourner ChatGPT pour développer un code malveillant polymorphique. En 2024, la situation s’est aggravée avec l’apparition de services de jailbreak-as-a-service comme EscapeGPT ou LoopGPT sur les forums cybercriminels. Moyennant quelques dollars, n’importe qui peut désormais accéder à des prompts préfabriqués pour faire cracher à ChatGPT ce qu’il refuse normalement de produire.

Les IA « débridées » du crime organisé

Mais pourquoi se fatiguer à contourner les protections quand on peut acheter une IA sans aucune limite ? Dès 2023, des services d’IA générative sans garde-fous tels que WormGPT, FraudGPT ou EvilGPT ont fleuri sur les forums cybercriminels ou via des canaux Telegram. Le prix du ticket : environ une centaine de dollars par mois. Des modèles plus récents comme WormGPT 4 seraient même directement entraînés sur des jeux de données spécifiques aux activités cybercriminelles, incluant du code malveillant et des modèles d’hameçonnage. L’industrialisation du crime numérique est en marche.

Quand l’IA devient elle-même la cible : les nouvelles vulnérabilités

Les catégories d’acteurs malveillants susceptibles de cibler spécifiquement les systèmes d’IA semblent similaires à celles qui s’attaquent aux systèmes d’information conventionnels. Mais les systèmes de LLM pourraient être vulnérables à de nouveaux vecteurs d’attaque inédits.

Lors de l’entraînement du modèle, des attaquants peuvent introduire des données corrompues ou fausses. Lors de l’intégration du modèle, il est possible d’y implémenter des portes dérobées. Enfin, lors de l’interrogation du modèle, également appelée inférence, des acteurs malveillants peuvent injecter de fausses informations pour altérer la réponse ou récupérer des informations confidentielles.

« Empoisonnement » des modèles : 250 documents suffisent pour corrompre une IA

Bien qu’aucun incident majeur n’ait été porté à la connaissance de l’ANSSI, le risque est réel et documenté. Des acteurs malveillants pourraient manipuler, modifier et interagir avec les données d’entraînement d’une IA générative. Une telle compromission pourrait mener à l’utilisation de ces modèles à des fins d’altération de données ou au sabotage de systèmes opérationnels.

Le plus inquiétant ? La multiplication de contenus fallacieux générés par IA sur Internet pourrait progressivement polluer les données d’entraînement des modèles et contribuer à diffuser de fausses informations à grande échelle. Une analyse conjointe du UK AI Security Institute et du Alan Turing Institute a d’ailleurs démontré une faille vertigineuse : il serait possible d’empoisonner des modèles d’IA générative à partir de seulement 250 documents malveillants. Pire encore, ce nombre resterait stable indépendamment de la taille des données d’apprentissage du modèle. Autrement dit, corrompre GPT-4 ou GPT-5 nécessiterait le même effort.

L’ANSSI a également observé certains modèles d’IA intégrant dès leur conception des limitations ou des éléments de censure. Dans le cadre du sommet pour l’IA 2024, Viginum a par ailleurs publié un rapport sur les défis et opportunités de l’IA dans la lutte contre les manipulations de l’information.

Attaques par la chaîne d’approvisionnement : le cheval de Troie version IA

Certaines attaques à l’encontre de modèles d’IA pourraient constituer une nouvelle forme redoutable d’attaque par chaîne d’approvisionnement. Des modèles d’IA générative disponibles en sources ouvertes et spécialisés dans la génération de code peuvent être malveillants ou compromis dès le départ, et exécuter du code arbitraire pour installer une porte dérobée dès leur téléchargement. Un piège parfait pour les développeurs pressés.

Les attaquants peuvent également exploiter des failles au sein d’agents Model Context Protocol (MCP), utilisés pour connecter les LLM à des outils externes et à des sources de données. Ces serveurs, qu’ils fonctionnent en local ou à distance, peuvent étendre dangereusement la surface d’attaque s’ils ne sont pas suffisamment sécurisés.

Pratique émergente et particulièrement sournoise, le slopsquatting, consiste à récupérer des noms de paquets imaginés par des IA lors d’hallucinations, puis à en diffuser des versions malveillantes. Les attaquants exploitent ainsi les erreurs de l’IA pour introduire des paquets malveillants dans la chaîne d’approvisionnement logicielle. Quand l’IA se trompe, les hackers en profitent.

100 000 comptes ChatGPT piratés

Les systèmes d’IA participent à l’augmentation de la surface d’attaque, d’autant plus lorsqu’ils sont intégrés dans des contextes logiciels plus larges, déployés dans des environnements classifiés ou utilisés dans certains flux opérationnels de l’entreprise. En l’absence d’un cloisonnement rigoureux physique et des usages, la compromission du système d’IA pourrait mener à l’atteinte à la confidentialité des données qu’il traite et à l’atteinte à l’intégrité des systèmes d’information auxquels il est connecté.

L’utilisation de comptes d’IA par les salariés dans un contexte professionnel peut exposer des informations sensibles à des risques considérables. Entre 2022 et 2023, plus de 100 000 comptes utilisateurs de ChatGPT ont été compromis par des acteurs cybercriminels à l’aide d’infostealers comme Rhadamanthys, puis revendus sur des forums.

Les employés peuvent involontairement générer des fuites de données en fournissant à l’IA des informations sensibles, voire confidentielles. L’exemple le plus emblématique ? En juin 2023, des salariés de Samsung ont divulgué des informations sensibles sur la technologie des semi-conducteurs en utilisant ChatGPT. L’enfer est pavé de bonnes intentions… et de prompts mal réfléchis.

The post IA générative : la nouvelle arme cyber qui inquiète l’ANSSI appeared first on Silicon.fr.

  •  

SpaceX et xAI fusionnent pour créer un colosse de 1 250 milliards $

SpaceX va acquérir xAI dans le cadre d’un échange d’actions qui valorise l’ensemble du nouvel groupe autour de 1 250 milliards $.

Cette opération de fusion-acquisition complète intègre xAI au sein de SpaceX, qui devient ainsi la maison mère d’une plateforme combinant fusées, réseau Starlink, intelligence artificielle Grok et services numériques associés. Les actionnaires de xAI recevront des titres SpaceX selon un ratio prédéfini.

La transaction intervient à un moment stratégique, en amont d’une introduction en Bourse envisagée pour SpaceX. L’opération valorise SpaceX proche de 1 000 milliards $ et xAI autour de 250 milliards. Cette consolidation vise à simplifier la structure capitalistique et à renforcer le profil de croissance perçu par les investisseurs.

Une intégration verticale espace-IA

L’enjeu industriel majeur réside dans le couplage des capacités d’intelligence artificielle de xAI avec les activités spatiales de SpaceX. Les modèles Grok et les infrastructures d’entraînement de xAI sont appelés à intervenir dans la conception de lanceurs, la planification de missions et la gestion de la chaîne logistique.

Le projet le plus ambitieux consiste à utiliser Starlink et des centres de données en orbite pour héberger et exécuter des modèles d’IA. L’objectif est de réduire la dépendance aux data centers terrestres, optimiser la consommation énergétique et limiter les contraintes de refroidissement.

L’IA de xAI doit également améliorer la conception des fusées, la détection d’anomalies en vol, la maintenance prédictive et l’optimisation des trajectoires, créant des boucles de rétroaction entre données de vol et entraînement des modèles. La fusion consolide par ailleurs les capacités duales civil-défense du groupe. SpaceX dispose déjà de nombreux contrats avec le Pentagone et les agences de renseignement, tandis que xAI commence à nouer des partenariats dans la défense, notamment pour des usages en logistique et analyse de renseignement.

Une diversification des revenus

Sur le plan commercial, cette fusion vise à justifier des multiples de valorisation plus élevés en présentant aux marchés une histoire de croissance unifiée avant l’introduction en Bourse. Au-delà des lancements et de Starlink, le nouvel ensemble ambitionne de proposer des offres de services d’IA adossées à l’infrastructure spatiale : connectivité augmentée, traitement de données en orbite, services temps réel pour entreprises et gouvernements.

Face aux autres acteurs de l’IA, xAI peine à rivaliser en part de marché avec OpenAI ou Anthropic. Mais son ancrage dans un actif industriel rentable et stratégique comme SpaceX lui confère un positionnement différenciant, basé sur la maîtrise conjointe de l’infrastructure physique et des modèles d’IA.

La taille et la nature stratégique du nouvel ensemble devraient accroître son pouvoir de négociation vis-à-vis des États et grands comptes. Cette concentration expose néanmoins le groupe à un contrôle accru sur les questions de concurrence, de sécurité nationale et de gouvernance des systèmes d’IA.

Image : © DR Space X

The post SpaceX et xAI fusionnent pour créer un colosse de 1 250 milliards $ appeared first on Silicon.fr.

  •  

Face au « scandale ICE », Capgemini veut vendre sa filiale CGS

6 jours pour réagir face au « scandale ICE », c’est le temps qu’il a fallu à Capgemini. Et d’annoncer sa décision de vendre sa filiale américaine qui a signé et exécuté le contrat avec l’agence fédérale américaine. Selon le syndicat CFTC, elle a été adopté à l’issue d’un conseil d’administration exceptionnel convoqué durant le week-end.

Le 25 janvier, Aiman Ezzat, son directeur général  avait choisi son compte LinkedIn pour expliquer que le groupe qu’il dirige n’avait quasiment aucun pouvoir de contrôle sur cette filiale américaine ( ce n’est pas la seule) baptisée Capgemini Government Solutions (CGS).

Exit donc toute responsabilité sur la signature du contrat avec l’Immigration and Customs Enforcement (ICE) pour un montant de 4,8 millions $. Son objet clairement indiqué dans les documents officiels publiés par l’agence fédérale américaine des achats, consistait à fournir des « services de recherche de personnes (skip tracing) pour les opérations d’exécution et d’expulsion ».

Un contrat interdit par la Charte éthique

La révélation avait provoqué de vives critiques émanant de ministres et de responsables politiques mais aussi des syndicats maison. Le 29 janvier, la CGT a ainsi lancé une pétition  » Exigeons la fin de la collaboration entre Capgemi et l’ICE » qui a déjà reçue plus de cinq mille signatures.

Le 1er février, c’est finalement un communiqué officiel de quatre lignes, le seul depuis le début de l’affaire, qui annonce :

« Capgemini a estimé que les contraintes légales habituelles imposées aux Etats-Unis pour contracter avec des entités fédérales menant des activités classifiées ne permettaient pas au Groupe d’exercer un contrôle approprié sur certains aspects des opérations de cette filiale, afin d’assurer un alignement avec les objectifs du Groupe. Le processus de cession de cette entité, qui représente 0,4% du chiffre d’affaires estimé du Groupe en 2025 (moins de 2% de son chiffre d’affaires aux Etats-Unis), sera initié immédiatement. » Aucune date et aucune valorisation de la vente n’est évoqué.

Pas de regret exprimé non plus sur la dimension éthique de l’affaire. Pourtant, la CFTC est formelle : « La charte étique du groupe interdit ce genre de prestation attentatoire à la liberté et aux droits des personnes. Normalement, si les acteurs de cette affaire avaient respecté cette charte, ils n’auraient pas répondu à cet appel d’offre, ni signé le contrat.».

 

 

 

 

The post Face au « scandale ICE », Capgemini veut vendre sa filiale CGS appeared first on Silicon.fr.

  •  

Comment l’IA va pousser les datacenters en orbite

Et si la prochaine génération de datacenters ne se construisait pas sur Terre, mais en orbite ? L’idée peut sembler relever de la science-fiction mais elle mobilise aujourd’hui des géants de la technologie et de l’espace.

Avec l’explosion des besoins en puissance de calcul pour l’intelligence artificielle et les tensions croissantes sur les ressources énergétiques terrestres, le concept de datacenters spatiaux gagne en crédibilité.

L’annonce d’une possible fusion entre SpaceX d’Elon Musk et xAI illustre l’intérêt grandissant pour cette approche. Si les promesses sont alléchantes – énergie solaire illimitée, refroidissement naturel, réduction de l’empreinte carbone -, les défis sont tout aussi considérables : coûts de lancement, fiabilité matérielle, maintenance impossible.

De quoi parle-t-on exactement ?

Les datacenters IA spatiaux sont des infrastructures de calcul déployées en orbite basse ou plus haute, combinant serveurs, accélérateurs IA (GPU, TPU, ASIC) et vastes surfaces solaires. Ils reposeraient sur des centaines de satellites interconnectés pour répondre à ces besoins massifs de compute pour l’entraînement et l’inférence des modèles IA très gourmands en ressources.

Au-delà de l’atmosphère, les satellites bénéficieraient d’une exposition solaire ininterrompue et pourraient dissiper la chaleur directement dans le vide spatial, supprimant ainsi deux des plus grands défis des datacenters terrestres.

Plusieurs programmes structurent aujourd’hui ce concept encore émergent, témoignant d’un réel engouement industriel.

> Google et le Project Suncatcher

Google développe le Project Suncatcher, un réseau ambitieux d’environ 80 satellites solaires positionnés à 400 km d’altitude, équipés de TPU (unités de traitement tensoriel) pour exécuter des charges IA. Ces satellites seraient interconnectés par des liaisons optiques et renverraient les résultats vers la Terre via des liens laser à haut débit. Deux premiers prototypes sont attendus en 2027, en partenariat avec Planet Labs.

> L’Initiative européenne ASCEND

En Europe, le projet ASCEND (Advanced Space Cloud for European Net zero emission and Data sovereignty), piloté par Thales Alenia Space et financée par la Commission européenne, conclut à la faisabilité de datacenters en orbite pour contribuer à l’objectif de neutralité carbone et à la souveraineté numérique européenne. Elle s’appuie sur un consortium mêlant experts environnementaux (dont Carbone 4), acteurs du cloud (Orange Business, HPE, CloudFerro), lanceurs (ArianeGroup) et agences spatiales.

Thales Alenia Space expérimente également le Space Edge Computing à plus petite échelle, en déployant un calculateur durci embarquant Microsoft Azure sur l’ISS pour traiter en orbite des flux d’observation de la Terre avec des applications IA comme DeeperVision. Cette approche préfigure des architectures hybrides où une partie du traitement IA est effectuée en orbite, le reste dans les clouds terrestres.

> Starcloud et Nvidia : objectif « hypercluster »

Starcloud, soutenu par Nvidia et Google, a franchi une étape importante le mois dernier en lançant le satellite Starcloud-1 via une fusée Falcon 9.

Équipé d’une puce Nvidia H100 – la plus puissante jamais envoyée en orbite – il entraîne et exécute le modèle Gemma de Google en tant que « proof of concept ». L’entreprise promeut des datacenters orbitaux alimentés 24/7 par l’énergie solaire, avec la promesse de réduire d’un facteur 10 les émissions de CO2 par rapport à un datacenter terrestre sur l’ensemble du cycle de vie. Elle vise à terme un « hypercluster » modulaire fournissant environ cinq gigawatts de puissance de calcul.

L’Alliance nippo-américaine contre la Chine

Au Japon, Space Compass et Microsoft explorent un réseau de satellites-relais optiques intégrant des capacités de edge computing pour rapprocher encore les fonctions de calcul IA des capteurs orbitaux et du cloud Azure.

La Chine n’est pas en reste, annonçant son intention de créer un « nuage spatial » au cours des cinq prochaines années. La China Aerospace Science and Technology Corporation s’est engagée à construire une infrastructure d’intelligence numérique spatiale de classe gigawatt, conformément à un plan de développement quinquennal.

Les défis technologiques et architecturaux

La mise en orbite d’un datacenter IA pose des défis technologiques considérables que les ingénieurs doivent surmonter.

> Lancement et assemblage

Les modules doivent être conçus de manière modulaire et suffisamment robustes pour résister aux violentes vibrations du décollage, puis être assemblés en orbite. Une tâche que des programmes comme EROSS IOD (European Robotic Orbital Support Services) entendent automatiser via la robotique spatiale européenne dès 2026.

> Gestion thermique complexe

Si le vide spatial évite la convection, il complique paradoxalement l’évacuation de la chaleur. Celle-ci doit passer par des radiateurs et une ingénierie thermique fine pour gérer des charges IA très denses. Contrairement aux idées reçues, le refroidissement dans l’espace n’est pas automatique et nécessite des systèmes sophistiqués.

> Fiabilité matérielle extrême

Les serveurs et accélérateurs IA doivent être durcis contre les radiations cosmiques et les cycles thermiques extrêmes, tout en restant compétitifs en performance par rapport aux générations terrestres renouvelées tous les 3 à 5 ans. C’est un défi majeur dans un secteur où l’obsolescence est rapide.

> Connectivité Haute Performance

Les datacenters spatiaux reposent sur des liens optiques haut débit, à la fois inter-satellites et vers le sol, afin de limiter la latence et de maximiser le débit pour l’entraînement et l’inférence distribués. Les liaisons laser deviennent indispensables pour gérer les volumes de données colossaux.

Les défis économiques et temporels

Malgré l’enthousiasme, les experts du secteur spatial restent prudents. Plusieurs obstacles majeurs se dressent sur la route de cette vision futuriste :

  • Les débris spatiaux représentent une menace constante pour tout équipement orbital
  • Les coûts de lancement demeurent substantiels malgré les progrès récents
  • La maintenance est extrêmement limitée une fois les satellites en orbite
  • Le rythme de renouvellement technologique pose question dans un environnement où l’accès physique est impossible

Selon les analystes de Deutsche Bank, les premiers déploiements de petits centres de données orbitaux sont attendus entre 2027 et 2028. Ces missions pionnières serviront à valider la technologie et évaluer la rentabilité. Les constellations plus importantes, comprenant potentiellement des centaines voire des milliers d’unités, ne verraient le jour que dans les années 2030, et seulement si ces premières expériences s’avèrent concluantes.

Le modèle économique repose sur trois piliers : la baisse rapide des coûts de lancement, la maturité de la robotique orbitale et la densification des puces IA. Si ces hypothèses se vérifient, le calcul IA en orbite pourrait devenir, à moyen terme, compétitif voire plus rentable que l’extension infinie de datacenters au sol dans des zones déjà contraintes en énergie et en eau.

Enjeux énergétiques et environnementaux : un bilan contrasté

Les datacenters IA tirent aujourd’hui la consommation électrique mondiale à la hausse, au point que certaines projections redoutent une saturation des réseaux et une tension croissante sur le foncier, l’eau et les énergies renouvelables. En orbite, la combinaison d’un flux solaire permanent (hors éclipses) et de panneaux plus efficaces qu’au sol ouvre un nouveau gradient d’optimisation énergétique.

Selon les porteurs du projet ASCEND, malgré l’empreinte carbone initiale des lancements, un datacenter spatial pourrait afficher, à horizon de vie complet, un bilan carbone meilleur qu’un équivalent terrestre si certains seuils de puissance et de durée de vie sont atteints. Des acteurs comme Starcloud avancent des chiffres impressionnants : jusqu’à 90% de réduction des coûts d’électricité, et un facteur 10 sur les émissions de CO2 sur la durée de vie, en supposant des lancements optimisés et une maintenance robotisée.

Cependant, la réalité est plus nuancée. Chaque lancement de fusée injecte des centaines de tonnes de CO2 et d’autres composés dans l’atmosphère, ce qui déplace le problème vers le secteur spatial et pose la question du rythme soutenable de mise en orbite de telles infrastructures. À cela s’ajoutent des enjeux préoccupants :

  • La pollution lumineuse causée par les constellations de satellites, déjà critiquée par les astronomes
  • La congestion croissante des orbites basses, source de risques de collision
  • L’impact cumulatif de milliers de lancements sur l’atmosphère

Le débat environnemental reste donc ouvert : les bénéfices opérationnels compensent-ils vraiment l’impact des phases de lancement et de déploiement ?

L’ambition de Musk et de Bezos

Pour Elon Musk, le timing semble idéal. SpaceX est le constructeur de fusées le plus performant de l’histoire et a déjà mis en orbite avec succès des milliers de satellites dans le cadre de son service internet Starlink. Cette infrastructure existante pourrait servir de fondation pour des satellites compatibles avec l’IA ou faciliter la mise en place de capacités informatiques embarquées.

Lors du Forum économique mondial de Davos au début du mois, il n’a pas caché son optimisme : « Il est évident qu’il faut construire des centres de données à énergie solaire dans l’espace… l’endroit le moins coûteux pour déployer l’IA sera l’espace, et ce sera vrai d’ici deux ans, trois au plus tard. »

SpaceX envisage d’ailleurs une introduction en bourse cette année, qui pourrait valoriser l’entreprise de fusées et de satellites à plus de 1 000 milliards $. Une partie des fonds levés servirait à financer le développement de satellites de centres de données dédiés à l’intelligence artificielle.

De leur côté, Blue Origin et Jeff Bezos travaillent sur leur propre technologie de datacenters spatiaux, en s’appuyant sur l’expertise d’Amazon. Le fondateur prévoit que les « centres de données géants de plusieurs gigawatts » en orbite pourraient, d’ici 10 à 20 ans, être plus abordables que leurs homologues terrestres.

Illustration : image générée par l’IA

The post Comment l’IA va pousser les datacenters en orbite appeared first on Silicon.fr.

  •  

IA Générative et environnement de travail : entre promesses et paradoxes

L’année 2025 a marqué un tournant décisif dans l’adoption de l’intelligence artificielle en entreprise. Selon  » l’étude annuelle de la transformation des organisations  » du cabinet Lecko, nous assistons au passage de l’expérimentation à l’intégration structurelle de l’IA dans le flux de travail quotidien. Mais cette transformation s’accompagne de défis majeurs et de paradoxes qui obligent les organisations à repenser profondément leurs modes de fonctionnement.

De l’outil isolé à l’architecture IA cohérente

Les organisations ne peuvent plus se contenter de « choisir une IA ». Elles doivent désormais concevoir une architecture IA cohérente, capable d’articuler des modèles spécialisés comme Claude, GPT ou Mistral, des couches d’orchestration et des connecteurs de données basés sur le RAG (Retrieval Augmented Generation) pour garantir la fiabilité des réponses.

Cette évolution traduit une maturité nouvelle : l’IA ne se déploie plus au coup par coup, mais s’inscrit dans une stratégie d’ensemble.

L’avènement de l’IA agentique

Lecko e met en lumière le passage de l’IA générative simple à l’IA agentique, une évolution majeure qui transforme radicalement les processus métiers. Contrairement aux outils d’assistance classiques, un agent IA est capable d’exécuter des tâches de manière autonome, comme planifier une réunion ou traiter un processus RH, en interagissant directement avec l’environnement de travail.

Cette autonomie repose sur trois caractéristiques essentielles : la capacité d’analyse de situations complexes, l’élaboration de stratégies et l’interaction directe avec les outils existants comme les CRM, ERP ou agendas. L’IA agentique vise la substitution complète de tâches, et non plus seulement leur amélioration ou leur facilitation.

Une spécialisation par métiers

L’IA s’intègre désormais au cœur des processus spécifiques de chaque département.
Dans les ressources humaines, des solutions comme Workday Illuminate déploient des agents spécialisés pour automatiser le recrutement ou rédiger des contrats. ServiceNow Now Assist automatise le résumé d’incidents et la génération de workflows pour les équipes IT. Les équipes commerciales bénéficient d’agents capables de qualifier des leads ou de préparer des devis de manière autonome.

En 2026, la valeur se déplace vers des plateformes agentiques capables d’orchestrer plusieurs agents simultanément. Les éditeurs comme Jalios, Jamespot, LumApps ou Microsoft proposent des studios « low-code » permettant aux métiers de fabriquer leurs propres agents sur mesure. Des « méta-agents » ou concierges IA dirigent les requêtes vers l’agent le plus pertinent, interrogeant simultanément différentes bases de données.

Selon Gartner, en 2028, 15 % des décisions professionnelles quotidiennes seront prises de manière autonome par des agents IA. Cette perspective souligne l’ampleur de la transformation en cours.

Le paradoxe de la productivité

L’un des enseignements les plus importants de l’étude concerne ce que Lecko appelle le « paradoxe de la productivité ». Contrairement aux attentes, l’IA n’améliore pas automatiquement les rythmes de travail. Pour obtenir un gain réel, il faut viser les tâches de substitution, où l’IA remplace effectivement une action humaine, plutôt que les tâches de confort ou de renfort.

Si les gains de temps promis par l’IA ne sont pas utilisés pour substituer des tâches récurrentes, ils restent invisibles au niveau de l’organisation et peuvent même entretenir l’hyperconnexion. L’IA agit ainsi comme un révélateur : elle ne peut transformer les processus que si le patrimoine documentaire est sain et bien structuré. Elle devient inefficace si les règles métiers sont floues ou les données mal organisées.

Lutter contre le bruit organisationnel

Le bruit organisationnel, défini comme le surplus de sollicitations numériques non filtrées et non priorisées qui fragmentent l’attention, est l’un des fléaux de l’environnement de travail moderne. L’IA agentique offre plusieurs leviers pour le combattre.

Des systèmes comme l’Assistant Teamwork de Jamespot proposent des résumés intelligents de notifications et une priorisation des messages. Des outils comme Staffbase ou Sociabble utilisent l’IA pour segmenter les audiences et personnaliser les flux, évitant de diffuser des informations non pertinentes aux collaborateurs terrain.

L’émergence de méta-agents orchestrateurs permet de router les requêtes vers le bon agent spécialisé, évitant les allers-retours inutiles dans le système d’information. Des plateformes comme LumApps avec son Agent Hub ou Elium centralisent les connaissances pour répondre en langage naturel, réduisant le bruit lié aux recherches infructueuses.

L’écosystème agentique gagne également en attractivité en proposant des innovations comme le « zéro fichier » ou la structuration des connaissances, ce qui réduit structurellement la place centrale de l’email, premier vecteur de pollution informationnelle en entreprise.

L’optimisation des réunions : promesses et limites

L’IA peut contribuer à limiter l’inefficacité des réunions, mais avec des nuances importantes. Les outils actuels comme Copilot, Leexi ou Fireflies excellent dans la transcription, la génération de comptes-rendus et l’extraction de plans d’actions. En fournissant des synthèses préalables, l’IA permet de raccourcir les réunions et de limiter le nombre de participants nécessaires.

Cependant, l’étude souligne une limite technique majeure : la réunion hybride est particulièrement difficile à traiter pour l’IA, qui peine à identifier correctement les personnes présentes physiquement par rapport à celles en ligne.

De plus, l’IA agit comme un miroir de l’efficacité organisationnelle. Une réunion mal structurée ou sans animateur produira une synthèse médiocre. Le déploiement de l’outil seul ne suffit pas à améliorer les rythmes de travail ; il doit s’accompagner d’un questionnement sur la nécessité même de la réunion.

Les risques et limites de l’IA générative

L’étude alerte sur plusieurs risques significatifs.

Paradoxalement, l’IA peut aggraver la pollution informationnelle si elle n’est pas accompagnée d’une transformation des pratiques. La facilité de production peut saturer davantage l’environnement numérique, créant un effet « tapis roulant » où une part croissante des contenus est générée automatiquement sans forcément apporter de valeur ajoutée.

Le phénomène du « Shadow AI » est également préoccupant : environ 49 % des utilisateurs en entreprise ont recours à l’IA sans en informer leur hiérarchie, ce qui contribue à fragmenter la Digital Workplace et complique la maîtrise des flux d’informations.

Des études alertent également sur une baisse des capacités cognitives et mémorielles des utilisateurs. La présence d’une IA peut encourager les participants à être moins attentifs, comptant sur le résumé automatique pour rattraper ce qu’ils ont manqué, un effet qualifié « d’endormissement au volant ».

Enfin, l’impact environnemental est colossal : la consommation d’électricité des data centers pourrait doubler d’ici 2026, soulevant des questions urgentes sur la soutenabilité de cette révolution technologique.

The post IA Générative et environnement de travail : entre promesses et paradoxes appeared first on Silicon.fr.

  •  
❌