Vue normale

GitGuardian lève 50 M$ : cap sur les secrets de l’IA agentique

12 février 2026 à 16:03

Les « identités non humaines » sont désormais bien ancrées dans la communication de GitGuardian.

L’annonce d’un nouveau tour de table en témoigne. L’entreprise française a levé 50 M$* qui lui serviront notamment à « répondre à la crise des identités non humaines ». Il s’agira aussi de combler le « vide sécuritaire » (security gap) des agents IA.

Le tour de table précédent (44 M$, série B) avait été officialisé fin 2021. GitGuardian ne parlait pas encore d’identités non humaines, d’autant qu’il n’avait pas de produit dédié.
Celui-ci serait lancé au printemps 2025. Il apporterait une gestion centralisée des secrets, complétant les offres axées sur leur détection (monitoring interne + surveillance de l’activité publique sur GitHub).

Au démarrage n’était que cette partie surveillance externe. La brique de monitoring interne avait été lancée en 2020, dans la foulée du tour de table de série A (12 M$). GitGuardian promettait alors de transformer ce socle en une « plate-forme exhaustive de sécurité du code ». L’année suivante, il remporterait le grand prix de la start-up au FIC.

Découvrir les secrets de l’IA agentique

La stratégie s’oriente donc désormais sur les systèmes d’IA… et sur la gouvernance des secrets qu’ils exploitent. En parallèle, pour la première fois dans le cadre d’une annonce de levée de fonds, GitGuardian évoque une extension de ses activités au Moyen-Orient, en Asie et en Amérique du Sud. Autre évolution : il ne met plus l’accent sur son public de développeurs individuels, mais de développeurs en entreprise (« plus de 115 000 »).

Sur le volet gestion des identités machine, GitGuardian a récemment fait la jonction avec AWS IAM et Entra ID. Anthropic et OpenAI ont rejoint son catalogue de connecteurs ; comme, dernièrement, Datadog, Snowflake, Okta et Slack, entre autres.

Du machine learning est venu enrichir la description des secrets découverts, le regroupement d’incidents et le scoring des risques. GitGuardian a aussi intégré une couche de langage naturel pour parcourir les journaux d’audit. Et un serveur MCP pour lire et analyser des incidents, automatiser leur résolution et générer des pots de miel.

* Tour de table emmené par le fonds américain Insight Partners. La société de gestion française Quadrille Capital a participé, aux côtés d’investisseurs existants (Balderton Capital, Bpifrance, Sapphire Ventures et le fonds allemand Fly Ventures).

Illustration générée par IA

The post GitGuardian lève 50 M$ : cap sur les secrets de l’IA agentique appeared first on Silicon.fr.

Microsoft veut voler de ses propres ailes dans l’IA

12 février 2026 à 14:31

Microsoft prend ses distances avec OpenAI. Mustafa Suleyman, patron de l’IA à Redmond, a confirmé au Financial Times un virage stratégique majeur en misant désormais sur « l’autosuffisance totale » en matière d’intelligence artificielle.

Ce repositionnement fait suite à une restructuration des liens entre les deux partenaires en octobre dernier. Concrètement, Microsoft développe désormais ses technologies les plus avancées en interne, plutôt que de s’appuyer sur un partenaire externe.

« Nous devons développer nos propres modèles de fondation, à la pointe absolue de la technologie, avec une puissance de calcul à l’échelle du gigawatt et certaines des meilleures équipes d’entraînement d’IA au monde », explique l’ancien cofondateur de Google DeepMind, arrivé chez Microsoft en 2024.

Microsoft investit massivement dans l’assemblage et l’organisation des vastes ensembles de données nécessaires à l’entraînement de systèmes avancés. Selon Suleyman, les premiers modèles développés en interne devraient être lancés «  dans le courant de l’année ».

Un pari à 140 milliards de dollars

Jusqu’à présent, Microsoft s’appuyait sur les modèles d’OpenAI pour alimenter ses outils d’IA, notamment l’assistant logiciel Copilot. L’accord négocié l’an dernier lui garantit une participation de 135 milliards $ dans la société inventeur de ChatGPT et l’accès à ses modèles les plus avancés jusqu’en 2032.

Mais cet arrangement offre également à OpenAI davantage de liberté pour rechercher de nouveaux investisseurs et partenaires d’infrastructure, le transformant potentiellement en concurrent direct.

Pour limiter les risques, Microsoft a diversifié ses investissements dans d’autres créateurs de modèles comme Anthropic et Mistral, tout en accélérant le développement de ses propres solutions.

L’ambition affichée : conquérir le marché des entreprises avec une « AGI de niveau professionnel » – des outils d’IA suffisamment puissants pour accomplir les tâches quotidiennes des travailleurs du savoir. « La plupart des tâches des cols blancs assis devant un ordinateur – avocat, comptable, chef de projet ou marketeur – seront entièrement automatisées par une IA d’ici 12 à 18 mois », prédit Suleyman.

Microsoft prévoit 140 milliards $ de dépenses d’investissement pour son exercice fiscal se terminant en juin, principalement pour construire l’infrastructure nécessaire à l’IA.

Au-delà de l’univers des entreprises, Microsoft cible aussi la santé avec l’objectif de construire une « superintelligence médicale » capable d’aider à résoudre les crises de personnel et les temps d’attente dans les systèmes de santé surchargés. L’année dernière, l’éditeur a dévoilé un outil de diagnostic qui surpasserait les médecins sur certaines tâches.

The post Microsoft veut voler de ses propres ailes dans l’IA appeared first on Silicon.fr.

De WhatsApp à MAX : Moscou met fin au chiffrement des communications

12 février 2026 à 14:13

Le couperet est tombé ce jeudi. WhatsApp, propriété de Meta, est désormais totalement inaccessible en Russie. « En raison du refus de Meta de se conformer à la législation russe, une telle décision a effectivement été prise et mise en œuvre », a déclaré Dmitri Peskov, porte-parole du Kremlin, suggérant aux Russes de basculer vers MAX, la messagerie nationale soutenue par l’État.

Cette mesure, qui touche plus de 100 millions d’utilisateurs, marque l’aboutissement de six mois de pression sur l’entreprise américaine et s’inscrit dans une stratégie plus large du pouvoir russe : créer et contrôler une infrastructure de communication « souveraine » où les géants technologiques étrangers se soumettent ou disparaissent.

La fin d’un modèle de sécurité

Le blocage ne se limite pas à un simple changement d’application. Il fait basculer les utilisateurs d’un système de « confidentialité par conception » vers un modèle de « transparence par défaut » vis-à-vis des opérateurs et des autorités.

WhatsApp repose sur un chiffrement de bout en bout : les clés cryptographiques sont générées et stockées uniquement sur les terminaux des utilisateurs. Même l’opérateur ne peut pas lire le contenu des messages. Pour intercepter des communications, il faut compromettre directement le téléphone de l’émetteur ou du destinataire, une opération complexe et coûteuse qui rend impraticable toute surveillance de masse.

MAX et les autres messageries promues par Moscou utilisent un chiffrement de  » transport »  ( entre l’appareil et le serveur) mais les messages restent lisibles en clair côté serveur. Cette architecture rouvre la porte à un accès direct par l’opérateur ou les services de sécurité, à des mandats légaux intrusifs et à des risques d’attaques internes.

Dans ce nouveau schéma, toute la sécurité repose sur un serveur central qui concentre contenus, métadonnées, carnets d’adresses et historiques. Les chercheurs ayant audité MAX décrivent une application qui collecte et journalise massivement les interactions, au point d’en faire « un outil de surveillance plutôt qu’une messagerie zéro connaissance ».

Cette concentration augmente mécaniquement la surface d’attaque : une seule brèche dans l’infrastructure peut exposer à grande échelle conversations et profils d’utilisateurs. Elle facilite aussi les opérations de corrélation : identifier qui parle à qui, quand, depuis où, même sans inspecter systématiquement le contenu.

Conformité avec la loi « Yarovaïa »

Le basculement s’inscrit dans le cadre de la loi  » Yarovaïa « , qui oblige les fournisseurs à remettre aux services de sécurité contenus et métadonnées, et à fournir les moyens techniques d’accès aux flux chiffrés. Les protocoles de chiffrement de bout en bout modernes rendent ces obligations difficilement applicables sans « casser » la cryptographie, ce qui explique l’hostilité particulière de Moscou envers WhatsApp, Signal et les « secret chats » de Telegram.

Avec MAX, ces exigences sont facilement satisfaites : accès direct aux bases de données, requêtes ciblées, voire écoute en temps quasi réel. Pour les utilisateurs, cela se traduit par un affaiblissement des garanties de confidentialité, même si le cadre est présenté politiquement comme un renforcement de la « sécurité » nationale.

Des risques pour les profils sensibles

Pour un particulier peu exposé, le changement se traduit par une perte diffuse de vie privée et un accroissement du traçage comportemental. Mais pour les journalistes, les ONG, les opposants ou les professions réglementées, la disparition d’un canal chiffré augmente significativement les risques : identification de sources, mise sous surveillance ciblée, remontée de réseaux entiers à partir de simples métadonnées.

Le contournement via VPN, seule alternative pour continuer à utiliser WhatsApp, introduit ses propres dangers. Des services non fiables peuvent intercepter le trafic, injecter des malwares ou affaiblir les vérifications de certificats, ouvrant la voie à des attaques de type « homme du milieu ».

Meta, désigné comme organisation extrémiste en Russie, a dénoncé cette mesure : « Tenter d’isoler plus de 100 millions d’utilisateurs d’une communication privée et sécurisée est un pas en arrière qui ne peut que conduire à moins de sécurité pour les gens en Russie. »

Depuis décembre, de nombreux Russes ne pouvaient déjà plus utiliser WhatsApp qu’avec un VPN. Le blocage complet marque une nouvelle étape dans la construction d’un internet « souverain » où le Kremlin contrôle non seulement les contenus, mais aussi l’architecture même des communications numériques.

The post De WhatsApp à MAX : Moscou met fin au chiffrement des communications appeared first on Silicon.fr.

L’ANSSI affirme l’open source comme levier de sa politique industrielle

12 février 2026 à 13:25

Sur le GitHub de l’ANSSI, les projets seront bientôt classés par « niveau d’ouverture ».

L’agence le signale désormais sur la page qui présente sa politique open source. Elle utilisera la classification qu’a élaborée la DINUM :

  • Contributif (contributions extérieures activement recherchées et traitées)
  • Ouvert (contributions extérieures traitées mais non activement recherchées)
  • Publié (contributions extérieures non traitées)

Autre nouveauté sur la page en question : l’évocation de l’open source en tant que levier d’action de la politique industrielle de l’ANSSI. Par ce lien « récent et en développement », l’agence cherche à favoriser la disponibilité de solutions cyber alignées sur les besoins.

Par rapport à l’ancienne version de la page, l’aspect « liste de projets » est moins marqué. L’ANSSI insiste davantage sur les licences, le transfert de projets et sur sa propre utilisation de solutions open source. Elle a ajouté des références à la communauté BlueHats ainsi qu’à celle des OSPO français.

Une partie des projets auparavant mentionnés se retrouvent sur la page d’accueil de l’organisation GitHub ANSSI-FR. Entre autres, DFIR ORC (outils de recherche de compromission), WooKey (micronoyau + environnement de dev pour le prototypage de solutions IoT) et CLIP OS (système d’exploitation Linux durci). Le premier est d’une envergure suffisante pour avoir sa propre orga GitHub. Les deux autres ont aussi la leur, mais parce qu’ils sont archivés.

Audit CSPN réussi pour Barbican, Suricata et KeePassXC

L’ANSSI évoque toujours son financement d’évaluations de sécurité, ad hoc ou sur les critères CSPN.

En 2018 avait démarré l’évaluation CSPN de Barbican (service de gestion de clés de la pile OpenStack), finalement certifié. La même année avait commencé celle de Suricata (détection et prévention d’intrusion), qui avait lui aussi réussi l’audit.

S2OPC (implémentation du protocole de communication OPC UA), nftables (sous-système Linux de filtrage de paquets) et KeePassXC (gestionnaire de mots de passe) ont également obtenu la CSPN.

Par deux fois, la version « originale » de KeePass (pour Windows) n’a pas réussi l’audit CSPN. Ça n’est pas non plus passé pour Keystone et Ansible (en 2018), strongSWAN (2019), Secretin, Belenios et Sudo (2021), ainsi que WireGuard (2023).

Les derniers audits ad hoc ont permis d’identifier 4 vulnérabilités dans CAS, 1 dans step-ca… et aucune dans HAProxy.

Illustration générée par IA

The post L’ANSSI affirme l’open source comme levier de sa politique industrielle appeared first on Silicon.fr.

Du casino au centre d’appels : le Groupe Barrière déploie l’IA par étapes

12 février 2026 à 12:14

Centres d’appels, support technique dans les casinos, assistants IA pour tous les collaborateurs…le Groupe Barrière déploie l’intelligence artificielle sur trois fronts simultanés.

L’acteur centenaire de l’hôtellerie de luxe, qui compte 33 établissements de jeux et 20 hôtels, expérimente avec méthode. Salomon Bentolila, Directeur Data & Acquisition, pilote le projet avec le cabinet de conseil Artefact comme prestataire.

Une feuille de route autour de trois axes

Son approche repose sur trois objectifs clairement définis. Premier axe, l’amélioration de la productivité et des opérations : l’IA est accessible à tous les employés, quel que soit leur niveau de maîtrise technologique, et s’applique à tous les secteurs d’activité. Deuxième axe, la transformation de l’expérience client et employé : les chatbots et solutions d’assistance par IA améliorent l’efficacité opérationnelle sans compromettre l’excellence du service. Enfin, le Groupe expérimente de nouveaux modèles commerciaux pour se différencier grâce à l’IA générative.

Il a ainsi développé une plateforme d’IA générative articulée autour de trois agents principaux, déployés progressivement selon une approche itérative.

Barrière GPT : démocratiser l’accès à l’IA

Basé sur Gemini, Barrière GPT offre un accès sécurisé à un modèle de langage avancé. La plateforme intègre des bibliothèques de prompts que les équipes peuvent partager et réutiliser. Déployé auprès d’une centaine de collaborateurs, l’outil a déjà généré plus de 4 000 prompts.

« Nous apprenons et progressons très vite en questionnant les choses. Google intègre de nombreuses fonctionnalités dans son Workspace. Cela soulève la question : devons-nous maintenir Barrière GPT ou nous appuyer sur des outils natifs ? Nous restons agiles », explique Salomon Bentolila.

Cette phase pilote permet d’évaluer l’adoption réelle et d’ajuster la stratégie en temps réel, plutôt que de s’engager dans un déploiement massif.

Agent centre d’appels : centraliser l’information

Les conseillers devaient consulter de multiples sources – procédures, catalogues de produits – et perdaient un temps précieux lors des interactions clients. L’équipe a développé un agent basé sur l’architecture RAG (Retrieval-Augmented Generation) qui centralise toute la documentation commerciale.

Les résultats sont probants : plus de 1 000 interactions générées par plus de 60 utilisateurs actifs, avec un score de satisfaction de 3,64/4. Le déploiement est prévu dans tous les centres d’appels du Groupe.

Support Barrière Play : une assistance 24/7

Barrière Play est une application permettant aux clients de se connecter aux machines à sous grâce à un portefeuille électronique rechargeable. Face aux problèmes techniques que les équipes terrain ne maîtrisaient pas toujours, le Groupe a créé une FAQ intégrée à un système RAG offrant une assistance par IA 24h/24 et 7j/7.

Testé dans trois casinos pilotes, il compte plus de 350 questions, plus de 30 utilisateurs actifs et un score de satisfaction de 3,77/4.

L’adoption utilisateur, clé de la réussite

« Nos employés du centre d’appels ont déjà accès à une trentaine d’outils. Cela représentait un outil supplémentaire à maîtriser. Il fallait donc que l’investissement en vaille vraiment la peine », souligne Salomon Bentolila.

Les retours terrain ont nécessité des ajustements. Pour les centres d’appels, les équipes ont dû améliorer la qualité des bases documentaires dans les RAG et démontrer la valeur ajoutée de manière concrète. Pour l’agent Barrière Play, l’interface initiale via Google Chat n’étant pas adaptée aux collaborateurs mobiles, le Groupe a intégré l’agent directement dans les outils de gestion via API.

LLM en tant que juge : garantir la qualité

La pérennité du système repose sur un contrôle rigoureux. Artefact et Groupe Barrière ont mis en place un système de juge-expert pour évaluer en continu la pertinence des réponses. Cette méthodologie se déroule en quatre étapes. D’abord, la création de bibliothèques de données de référence avec des paires question/réponse annotées. Ensuite, la génération de réponses via l’agent RAG à évaluer. Puis, un expert en droit attribue automatiquement une note de 1 à 4 à la prédiction, avec une justification explicite. Enfin, la révision des justifications et la modification du contexte de l’agent/RAG.

Ce cycle d’amélioration continue renforce la confiance des utilisateurs et garantit la fiabilité à long terme.

Avec plus de 5 000 demandes générées, le Groupe prévoit de nouveaux cas d’utilisation en 2026. L’agilité demeure la priorité.

« Plutôt que de suivre une feuille de route rigide, nous privilégions la saisie des opportunités susceptibles d’intéresser nos équipes. Nous définissons un budget que nous déployons en fonction des besoins », conclut Salomon Bentolila.

Photo : © DR

The post Du casino au centre d’appels : le Groupe Barrière déploie l’IA par étapes appeared first on Silicon.fr.

Stephan Teerling, nouveau Chief IT & Technology Officer d’Allianz France

12 février 2026 à 11:33

Allianz France renforce sa gouvernance avec la nomination de Stephan Teerling au sein de son Comité Exécutif. En tant que nouveau Chief IT & Technology Officer, il prend désormais la direction des systèmes d’information de l’assureur.Un expert du conseil et de la tech

Âgé de 45 ans, Stephan Teerling est titulaire d’un Master « Business Systems Engineering » de l’Université de Duisburg. Avant d’intégrer le groupe Allianz, il a forgé son expérience dans le secteur du conseil et du management IT au sein de cabinets de référence tels que BCG Platinion et Accenture.

Un parcours au sein du Groupe Allianz

Entré chez Allianz Allemagne en 2015 pour diriger l’analyse des données de santé (Health Analytics), il accélère son parcours en 2019 en devenant Deputy Managing Director d’Allianz Digital Health. À ce poste, il a activement contribué à la création de l’entité, au déploiement international de solutions IT santé et à la croissance de ce segment.

Depuis 2022, Stephan Teerling occupait les fonctions de directeur de Cabinet d’Oliver Bäte, Directeur général d’Allianz SE. Dans ce rôle, il a piloté des projets stratégiques d’envergure mondiale, notamment le programme « Rapid Productivity » déployé dans 19 entités du Groupe à travers le monde.

Photo : © DR

The post Stephan Teerling, nouveau Chief IT & Technology Officer d’Allianz France appeared first on Silicon.fr.

Windows 11 26H1, cette épine dans le pied des admins

12 février 2026 à 09:21

Microsoft vient-il de bouleverser le modèle mental et opérationnel auquel les admins de parcs Windows se sont habitués ?

Le groupe américain a eu droit à ce commentaire à propos de Windows 11 26H1.

Cette version, stable depuis le 10 février, est particulière à plusieurs titres. D’abord, elle ne cible pour le moment qu’une plate-forme : les Snapdragon X2 (les premiers PC qui en seront équipés sont attendus pour mars-avril). Ensuite, comme elle a son propre cœur Windows, elle aura aussi son propre chemin de mise à niveau – non défini pour l’heure. Autrement dit, elle ne pourra pas basculer vers le futur Windows 11 26H2.

Dans ce contexte, Windows 11 24H2 et 25H2 restent les versions recommandées pour les déploiements en entreprise, explique Microsoft. Il faut voir Windows 11 26H1 comme le moyen d’évaluer de nouvelles plates-formes… même si les Insiders ont pu l’expérimenter sur des appareils Arm existants comme Surface Laptop.

Windows 11 26H1, un simple glissement sémantique ?

À parité fonctionnelle avec Windows 11 25H2, Windows 11 26H1 suivra le même cycle de vie : 24 mois de support standard pour l’édition Pro, 36 mois pour l’édition Entreprise. En l’état, il ne gère pas le mécanisme des mises à jour correctives à chaud (hotpatch)*.

Pour les admins, c’est une nouvelle approche à assimiler, en tout cas sur le plan sémantique. À l’avenir, « mise à jour de fonctionnalités » pourrait ne plus rimer avec « deuxième semestre de l’année »… et donc avec « version H2 ». Ce qui pourrait avoir un impact en matière de planification et de gouvernance.

* Avec le hotpatch, les appareils reçoivent tous les trimestres une mise à jour cumulative de base qui nécessite un redémarrage. Mais les mois intercalaires, ils peuvent installer des correctifs de sécurité sans avoir à redémarrer.

Illustration générée par IA

The post Windows 11 26H1, cette épine dans le pied des admins appeared first on Silicon.fr.

Mistral AI investit 1,2 milliard € dans un datacenter IA

11 février 2026 à 16:15

C’est un coup d’accélérateur dans la bataille de l’IA européenne. Mistral AI, valorisée à près de 12 milliards €, annonce un investissement colossal de 1,2 milliard € en partenariat avec l’opérateur suédois EcoDataCenter. Objectif : ériger à Borlänge, au cœur de la Suède, une infrastructure de calcul de nouvelle génération dédiée à l’entraînement et au déploiement de ses modèles d’IA.

Pourquoi la Suède ? La réponse tient autant à la géographie qu’à la géopolitique. Le royaume scandinave offre un cocktail d’avantages difficilement égalable : une électricité 100% renouvelable issue de l’hydroélectrique et de l’éolien, des températures favorables au refroidissement des serveurs, et des coûts énergétiques compétitifs.

Un choix nordique stratégique

Le datacenter, dont l’ouverture est prévue pour 2027, accueillera les GPU NVIDIA Vera Rubin de dernière génération et promet des performances de pointe avec un PUE (Power Usage Effectiveness) parmi les plus bas du marché. EcoDataCenter, qui assurera la conception, la construction et l’exploitation du site, capitalise sur son expertise reconnue en infrastructures haute densité optimisées pour le calcul intensif.

Au-delà des aspects techniques, c’est un projet éminemment politique que porte Arthur Mensch, CEO et cofondateur de Mistral AI. « C’est un pas concret vers des capacités indépendantes en Europe », affirme-t-il.

Le partenariat vise à constituer une pile technologique entièrement européenne, du silicium aux algorithmes. Les données seront traitées et stockées localement, sous le cadre juridique de l’Union européenne, avec l’ambition affichée de proposer un « cloud IA européen » aux entreprises, administrations publiques et centres de recherche.

Pour la Suède, ce projet confirme son statut de hub européen des infrastructures numériques avancées, aux côtés d’autres projets HPC (High Performance Computing) déjà déployés dans le pays.

The post Mistral AI investit 1,2 milliard € dans un datacenter IA appeared first on Silicon.fr.

{ Tribune Expert } – La confiance, enjeu essentiel des forums cybercriminels

11 février 2026 à 15:38

Dans l’écosystème cybercriminel, la confiance constitue un pilier essentiel au bon fonctionnement des échanges, alors même que ceux-ci reposent sur l’anonymat, l’absence de recours légaux et une instabilité structurelle permanente.

Acheteurs et vendeurs interagissent sous pseudonyme, sans connaître l’identité réelle de leurs interlocuteurs, dans un environnement exposé aux arnaques, aux exit scams, aux démantèlements des forces de l’ordre et aux conflits internes entre acteurs. Cette situation rend la construction de relations de confiance particulièrement complexe sur les forums et marketplaces du Deep et du Dark Web.

Malgré ces contraintes, la communauté cybercriminelle a mis en place des mécanismes visant à encadrer les transactions et limiter les abus. Ces dispositifs incluent la restriction des inscriptions, la modération des contenus, les systèmes de réputation, le recours à des tiers (escrow), ainsi que la création de véritables « tribunaux » communautaires permettant le règlement des litiges entre membres. Ces mécanismes jouent un rôle central dans la structuration des échanges et la régulation des comportements frauduleux.

Un écosystème structuré autour de la réputation et des rôles de chacun

Avant d’analyser ces outils, il convient de rappeler les principaux profils d’acteurs en présence. Les forums cybercriminels fonctionnent comme des marchés où une offre (bases de données, accès, malwares, services frauduleux) rencontre une demande, avec des transactions généralement réalisées en cryptomonnaies ou via des systèmes de crédits internes.

Ces échanges sont encadrés par des administrateurs et des modérateurs chargés de faire respecter les règles, ainsi que par des membres de confiance comme les escrows, dont la réputation est censée garantir la sécurité des transactions. La réputation, matérialisée par l’ancienneté du compte, l’activité, les évaluations des pairs, les dépôts financiers ou l’acquisition de grades, constitue un facteur clé dans l’établissement de la confiance.

Fragilisation de la confiance et réponses face à l’instabilité

Toutefois, malgré ces garde-fous, les arnaques demeurent présentes. Ventes de données falsifiées, reventes de fuites publiques, usurpation d’identité de groupes connus, faux escrows ou exit scams illustrent les multiples formes de fraude qui fragilisent l’écosystème.

Cette défiance est accentuée par la pression exercée par les autorités, comme en témoignent les opérations internationales majeures (Cronos, Endgame) ayant conduit à la saisie de plateformes et à l’arrestation d’administrateurs. Ces actions, en sapant la crédibilité des forums, ont profondément mis à mal la confiance entre utilisateurs de forums cybercriminels.

Face à cette instabilité, les cybercriminels ont dû mettre en place certains garde-fous : durcissement des conditions d’accès, renforcement des règlements internes, multiplication des contrôles de réputation et migration partielle vers des plateformes alternatives comme Telegram. Dans ce contexte, les systèmes de tribunaux internes sont devenus un élément central afin de créer de la confiance au sein de la communauté cybercriminelle.

Les scam reports de DarkForums comme mécanisme de régulation

C’est dans cette perspective que cet article s’intéresse au système de scam reports de DarkForums, forum cybercriminel en forte croissance depuis le démantèlement de BreachForums.

Héritier direct des mécanismes de RaidForums et BreachForums, ce système permet à un membre de signaler publiquement un litige à l’encontre d’un autre utilisateur.

À partir d’une analyse qualitative et quantitative de 61 scam reports publiés entre décembre 2024 et novembre 2025, cette étude évalue l’efficience du mécanisme et son rôle dans la création de confiance.

Les résultats montrent que la majorité des litiges concernent des escroqueries liées au non-respect des transactions, suivies par la vente de données falsifiées et la revente de données publiques. Dans près des trois quarts des cas, la réponse des administrateurs se limite à l’exclusion de l’accusé, les remboursements étant rares en raison de l’absence de système de dépôt sur DarkForums. Malgré ces limites, la transparence des tickets, leur archivage public, la rapidité de traitement et l’implication de certains utilisateurs jouant un rôle de « justiciables » contribuent à renforcer la capacité des membres à évaluer la fiabilité de leurs interlocuteurs.

L’étude met également en évidence des dérives, notamment l’ouverture de plaintes malveillantes ou instrumentalisées à des fins de vengeance ou de concurrence. Ces abus rappellent que le système reste imparfait et vulnérable aux manipulations.

Néanmoins, malgré ces failles, les scam reports et le rôle des modérateurs constituent un outil essentiel de régulation. Ils offrent un cadre minimal de contrôle et de visibilité, permettant de maintenir un niveau de confiance suffisant pour assurer la continuité des échanges de données et de services illicites au sein de l’écosystème cybercriminel.

*Julie Arnoux, Ambroise Da Silva et Nicolas Boussange sont experts cyber chez XMCO*

The post { Tribune Expert } – La confiance, enjeu essentiel des forums cybercriminels appeared first on Silicon.fr.

ESN : la fin de l’âge d’or des valorisations, l’IA générative comme nouvel eldorado

11 février 2026 à 15:26

Le réveil est un peu brutal pour les Entreprises de Services Numériques (ESN) françaises. Selon le dernier baromètre réalisé par la banque d’affaires Crescendo Finance en partenariat avec le cabinet PAC, le secteur entre dans une phase de normalisation après des années de surchauffe.

Après un pic d’activité M&A (fusions-acquisitions) en 2022 avec 73 opérations recensées, le marché montre des signes de fatigue : la croissance des services IT en France devrait même se contracter de 2,1% en 2025.

Le blues des multiples

Le temps où les vendeurs dictaient leurs conditions semble s’éloigner. Les multiples d’EBITDA *, qui avaient grimpé jusqu’à 13,9x en 2022 pour les acquéreurs stratégiques, sont retombés à 9,2x en 2024. « Le contexte économique affecte de façon symétrique les multiples », tempère l’étude, notant que pour la première fois depuis 2021, la valorisation des ESN françaises est repassée légèrement sous l’indice Argos des PME non cotées.

Pourtant, cette moyenne cache de profondes disparités. C’est un marché à deux vitesses : d’un côté, l’infogérance classique, dont les multiples plafonnent péniblement à 6,3x EBITDA. De l’autre, les « chouchous » des investisseurs : la cybersécurité et la Data/IA, qui continuent d’afficher des valorisations insolentes, dépassant parfois les 15x l’EBITDA pour les cibles les plus pointues.

IA générative : 3,2 milliards € en ligne de mire

Si le marché global ronronne, l’IA générative (IAGen) agit comme un booster de croissance. PAC estime que les dépenses externes liées à l’IAGen en France vont littéralement exploser, passant de 425 millions € en 2024 à 3,2 milliards € dès 2028.
« 72% des entreprises font de l’adoption de l’IA générative une priorité absolue», souligne l’étude. Cette « frénésie » pousse les grands prédateurs du secteur à sortir le carnet de chèques pour ne pas rater le train de l’IA agentique.

Accenture et Capgemini sont en première ligne, avec des budgets d’investissement se comptant en milliards de dollars pour renforcer leurs compétences via des acquisitions ciblées.

Les fonds d’investissement à l’affût des ETI

Le paysage des transactions reste dominé à 75% par les « corporates » (les ESN elles-mêmes), qui privilégient les petites cibles de moins de 15 millions € de chiffre d’affaires pour muscler leurs expertises locales. Les fonds d’investissement, bien que représentant seulement 25% des volumes, jouent les arbitres sur les dossiers plus matures : 47% de leurs jetons sont misés sur des entreprises réalisant plus de 50 millions € de CA.

Pour 2025, les experts prévoient une stabilisation. L’assouplissement des conditions de financement et la nécessité impérieuse de souveraineté numérique devraient soutenir un volume d’opérations honorable. Mais pour séduire les acheteurs, il faudra désormais plus qu’une simple croissance organique : la récurrence des revenus (modèle SaaS) et la maîtrise de la data sont devenues les nouveaux juges de paix de la valorisation.

*EBITDA est l’abréviation de « bénéfice avant intérêts, impôts, dépréciation et amortissement ».

The post ESN : la fin de l’âge d’or des valorisations, l’IA générative comme nouvel eldorado appeared first on Silicon.fr.

Google-Wiz : l’UE valide en balayant les craintes

11 février 2026 à 15:01

La Commission européenne n’ira pas plus loin dans l’examen du dossier Google-Wiz : elle a validé l’acquisition sans condition.

Bruxelles ne nie pas le risque de remise en cause de la neutralité de l’entreprise israélienne. Mais considère que les clients pourront, le cas échéant, accéder à des solutions alternatives « crédibles » de sécurité cloud.

Balayé également l’effet « cheval de Troie » qu’avait notamment dénoncé le CISPE. Certes, l’opération procurera à Google des données concernant les clouds concurrents. Mais elles ne sont « pas commercialement sensibles », en plus d’être généralement accessibles à d’autres fournisseurs de logiciels de sécurité.

Google franchit là un autre étape importante après le feu vert que les États-Unis lui ont donné en novembre 2025. Reste une enquête en Australie, avec une décision prévue d’ici au 23 février 2026.

« Rappelle-toi DoubleClick… »

Wiz était précieux par son indépendance, déplore un collectif d’organisations de la société civile basées en Allemagne (Rebalance Now), aux Pays-Bas (SOMO), au Royaume-Uni (Article 19, Balanced Economy Project) et aux États-Unis (Open Markets Institute).

La Commission européenne sait que le contrôle d’une couche stratégique peut être mis à profit pour consolider une position sur des marchés annexes, regrettent ces organisations. Partant, il ne fallait pas valider sur la base de parts de marché* et de considérations tarifaires, poursuivent-elles.

Il y a quelques semaines, dans la perspective de l’examen du projet d’acquisition, une des membres de Rebalance Now avait copublié un article intitulé « L’empire caché de Google ». Elle y postulait que Google s’était imposé comme une arme géopolitique pour les USA, par là même susceptibles de préférer en renforcer le pouvoir plutôt que de le contrôler.

L’article pointait les risques d’intégration verticale. Et établissait, à ce sujet, un parallèle avec l’acquisition de DoubleClick – que l’UE avait validée en 2008. Il insistait aussi sur l’ancrage profond de Google dans l’écosystème start-up/innovation (plus de 6000 sociétés acquises ou soutenues dans l’économie numérique et au-delà). Et sur sa croissance supérieure à celle d’Amazon et de Microsoft dans le cloud d’infrastructure.

Fin 2025, Wiz a atteint le milliard de dollars de revenu anuel récurrent. Google compte s’en emparer pour 32 milliards de dollars en cash. Jusqu’ici, la plus chère de ses acquisitions fut celle de Motorola Mobility (12,5 Md$ en 2012).

* Dans ce même esprit, la Commission européenne n’a pas inclus Google dans son enquête visant à déterminer s’il faut soumettre des plates-formes cloud au DMA.

Illustration générée par IA

The post Google-Wiz : l’UE valide en balayant les craintes appeared first on Silicon.fr.

Un an après, que devient l’initiative EU AI Champions ?

11 février 2026 à 11:28

Ne cherchez plus Heineken ni Henkel : ils ne font plus partie des « supporters » d’EU AI Champions.

Cette initiative était née il y a tout juste un an, à l’occasion du Sommet pour l’action sur l’IA. Une soixantaine d’organisations – fournisseurs, utilisateurs et quelques associations représentatives – s’y étaient ralliées, sous la houlette du fonds de capital-risque General Catalyst. Sur le papier, l’objectif principal était simple : contribuer à accélérer le développement et l’adoption de l’intelligence artificielle en Europe. Entre renforcement de l’infrastructure de datacenters, développement des compétences et financement d’entreprises spécialisées, une vingtaine d’investisseurs s’étaient engagés à débloquer un total de 150 milliards d’euros sur 5 ans.

Une première discussion avec un groupe de P-DG et de responsables politiques eut lieu au lendemain du Sommet. EU AI Champions appelait alors, entre autres, à simplifier la réglementation, à commencer par l’AI Act. Sa mobilisation sur le sujet avait culminé au mois juillet, quelques semaines avant l’entrée en vigueur des dispositions du règlement concernant les modèles d’IA à usage général. Par une lettre ouverte, la majorité de ses membres avaient réclamé un moratoire de 2 ans sur l’application des principales obligations du texte. Parmi les signataires figuraient, côté français, Arthur Mensch (Mistral AI), Éléonore Crespo (Pigment), Patrick Pouyanné (TotalEnergies), Guillaume Faury (Airbus), Bernard Charlès (Dassault Systèmes), Alexandre Bompard (Carrefour) et Jean-Laurent Bonnafé (BNP Paribas).

L’UE n’est pas allée jusque-là, mais elle a lâché du lest avec son omnibus numérique.

Une com qui s’est recentrée sur les membres

La liste des « supporters » comprend aujourd’hui 114 logos, rattachés à une centaine d’organisations. Elle n’a globalement pas évolué depuis mars 2025. Heineken et Henkel étaient alors déjà sortis de la boucle.

EU AI Champions a fait de LinkedIn son principal canal de communication au public. Initialement, il y mit régulièrement en avant des organisations qui ne comptaient pas parmi ses membres (Bosch, Langfuse, PortiaAI…). C’est devenu plus rare.

Fin 2025, dans la lignée de ses appels à un allègement réglementaire, le collectif s’était fait l’écho de la position du gouvernement allemand sur l’omnibus numérique. Il s’en était réjoui, y voyant « la première réponse réglementaire sérieuse à ce que l’industrie européenne de l’IA signalait depuis des mois ». Il faut dire que Berlin préconisait notamment de reporter d’un an l’application des règles relatives aux systèmes d’IA « à haut risque ».

Une initiative européenne à dominante franco-allemande

Quoique à dimension européenne, EU AI Champions a des fondations largement franco-allemandes. Sur ses 114 logos, une trentaine sont rattachés à des organisations françaises et une quarantaine, à des organisations allemandes.

France Allemagne
Airbus Bilfinger (construction et services)
Airbus Defence and Space Black Forest Labs (labo d’IA à l’origine des modèles multimodaux FLUX)
Alan Cambrium (fabricant de produits chimiques)
Autone (optimisation des stocks) Covestro (fabricant de produits chimiques)
AXA DeepL
BNP Paribas Deutsche Bank
Carrefour Deutsche Telekom
CMA CGM Edgeless Systems (cybersécurité)
Contentsquare Flix (traveltech)
Dassault Systèmes Genesis Cloud (« néocloud »)
Dataiku German AI Association (fédération des entreprises allemandes de l’IA)
Doctolib GetYourGuide (réservation de voyages)
Dust (plate-forme IA axée production de contenu) Giesecke+Devrient (solutions de sécurité)
EDF Hapag-Lloyd (transport maritime en conteneurs)
Kering Helsing (technologies de défense)
L’Oréal Holtzbrinck (maison d’édition)
Lighton Hexagon (technologies de mesure)
Mirakl Infineon
Mistral AI K+S (entreprise minière)
Orange LangDock (plate-forme IA d’entreprise)
Owkin LOH Group (industrie manufacturière et services)
Pelico (plate-forme d’orchestration de la production) Lufthansa
Photoroom Merantix Capital
Pigment (plate-forme de planification) Mercedes-Benz
Publicis Groupe Northern Data Group (« néocloud »)
Renault Group Orbem (technologies d’IRM)
Sanofi Otto Group (vente à distance)
Shift (détection de fraude à l’assurance) Parloa (conception et déploiement d’IA)
TotalEnergies Personio (logiciels RH)
RobCo (robotique)
SAP
Schwarz (groupe de distribution)
Siemens
Siemens Energy
Skeleton (stockage de l’énergie)
SPREAD (IA industrielle)
Startup Verband (fédération des start-up allemandes)
Südzucker (groupe sucrier)
United Internet (services numériques)
ZF (équipementier automobile)

À ce contingent s’ajoutent deux entreprises dont les fondateurs sont français, mais qui ont leur siège aux États-Unis. Une du secteur aérospatial (Loft Orbital, qui a un pied à Toulouse). L’autre qui fournit des logiciels RH (Deel).

Un pot-pourri de projets annoncé à Berlin

Le dernier « temps fort » d’EU AI Champions s’est déroulé au Sommet sur la souveraineté numérique organisé à Berlin. C’était mi-novembre 2025. Ses membres y ont annoncé un pot-pourri de partenariats, d’accords commerciaux et d’engagements individuels, valorisés dans leur ensemble à 1 Md€.

Projets Grandes lignes des engagements
Allianz (Allemagne) x Parloa (Allemagne) Le premier va exploiter les technologies du second pour le service client.
Black Forest Labs (Allemagne) x Mercedes-Benz (Allemagne) Le groupe automobile va développer des outils IA sur la base des modèles FLUX de la start-up.
Charité Comprehensive Cancer Center (Allemagne) x Gustave Roussy (France) x Owkin (France) Ce projet associe les deux centres autour de la structuration de données biomédicales et d’un modèle de raisonnement pour la recherche biologique et le développement de médicaments.
Current AI x SPRIND Current AI est un partenariat global né au Sommet de l’IA, sous l’impulsion de DeepMind, de Salesforce, d’AI Collaborative (initiative d’Omidyar Group), du ministère français de l’Europe et des Affaires étrangères et de trois fondations (Ford, MacArthur, McGovern).
SPRIND est l’agence fédérale allemande pour l’innovation de rupture.
Les deux parties travailleront sur l’application de l’IA aux données de santé.
Deutsche Telekom (Allemagne) x PhysicsX (Angleterre) L’entreprise anglais va exploiter le cloud du groupe allemand pour déployer sa plate-forme d’ingénierie fondée sur de l’IA physique. Le partenariat court pour 3 ans.
Doctolib (France) Pas de partenariat, mais un engagement à investir dans le système de santé allemand.
ESTIA (European Sovereign Tech Industry Alliance) Naissance de cette alliance qui réunit A1, Airbus, Dassault Systèmes, Deutsche Telekom, Evroc, OpenNebula Systems, Orange, OVHcloud, Post Luxembourg, Schwarz Digits, Sopra Steria et TIM.
Helsing (Allemagne) x Mistral AI (France) Nouvelle phase de collaboration, axée sur la conception de modèles vision-langage pour la défense et la sécurité.
ICEYE (Finlande) Ce fabricant de micro-satellites a constitué un joint-venture avec le groupe allemand Rheinmetall (armement et équipement automobile).
Legora (Suède) Cette legaltech a annoncé vouloir doubler son effectif sur un an et établit des points de présence supplémentaires en Europe.
MBDA (France) x Rheinmetall (Allemagne) x SPREAD (Allemagne) SPREAD contribue au jumeau numérique de défense de Rheinmetall et à l’automatisation de la validation chez MBDA (aéronautique, spatial et armement).
Mercedes-Benz (Allemagne) Engagement à collaborer avec les start-up et les fournisseurs de modèles d’IA européens.
Multiverse (Angleterre) Cette edtech s’est engagé à ouvrir un bureau en Allemagne. Elle compte former, sur place, 100 000 personnes à l’IA en 5 ans.
Nextcloud (Allemagne) L’entreprise s’engage à investir « plus de 250 M€ » dans son programme Sovereignty 2030 pour « faire de l’IA ouverte souveraine une réalité en Europe ».
Otto Group (Allemagne) Engagement à investi 350 M€ sur 3 ans pour faire évoluer le e-commerce, notamment à renfort de GenAI.
SAP (Allemagne) x Mistral AI (France) Extension du partenariat à travers lequel SAP fournit les modèles Mistral via sa Business Technology Platform (voir notre article à ce sujet).
Siemens Engagement à développer un « écosystème européen de données industrielles » qui alimentera des modèles de fondation industriels.
SPRIND Lancement, en juin 2026, d’un défi « Next Frontier AI » doté de 125 M€. Objectif : faire émerger des labos européens exporant des « approches alternatives » de l’IA, en particulier la frugalité en données et en énergie.

À cette même occasion, EU AI Champions a déclaré que 20 Md€ avaient été engagés sur les 150 Md€ alloués.

Son document référent reste le rapport « Un agenda ambitieux pour l’IA européenne » que General Catalyst avait publié au Sommet de l’IA 2025

Illustration générée par IA

The post Un an après, que devient l’initiative EU AI Champions ? appeared first on Silicon.fr.

L’infrastructure à l’ère de l’IA : les choix techniques qui engagent l’avenir

11 février 2026 à 10:23

L’adoption de l’IA en entreprise ne se limite plus à des expérimentations et des proof of concept. Pour l’industrialiser, il est désormais nécessaire de repenser en profondeur l’infrastructure IT, avec des choix structurants qui engagent l’organisation sur le long terme. C’est précisément l’objet de cette matinale organisée par Silicon.

La première table ronde attaque un sujet majeur : « Cloud, On-premise ou Hybride : Quel socle technique pour maîtriser les coûts et la puissance de calcul ? »

Face à l’explosion des besoins en puissance de calcul, les directions IT doivent arbitrer entre l’internalisation de GPU pour garder le contrôle, le recours au cloud pour sa flexibilité, ou une approche hybride. Jean-Jacques Mok, Cloud Program Manager chez MATMUT, et Grégoire Martinon, AI Research Director chez EMERTON, partageront leurs retours d’expérience sur ces décisions où se mêlent performance, souveraineté des données et maîtrise des coûts.

Sécurité et résilience, deux piliers non négociables

L’intelligence artificielle amplifie les risques autant qu’elle offre d’opportunités. La matinale Silicon accorde une place centrale aux enjeux de cybersécurité et de continuité d’activité, deux priorités absolues pour tout CISO.

La seconde table ronde abordera cet enjeu crucial : « De la conception à la production : sécuriser les pipelines et gouverner la donnée à l’ère des LLM ». Avec Chahir Al Echi, responsable du service Experts Cybersécurité à la Caisse des dépôts, et Franck Rouxel de la Fédération Française de Cybersécurité, les échanges porteront sur la gouvernance des données à l’ère des LLM, la protection des modèles, et l’industrialisation sécurisée de l’IA. Car déployer un modèle d’IA en production, c’est ouvrir de nouvelles surfaces d’attaque qu’il faut anticiper et protéger.

Un format pensé pour les décideurs IT

Le programme alterne intelligemment tables rondes thématiques et interventions de partenaires technologiques (Vertiv, Fivetran), permettant de croiser les perspectives stratégiques et les approches techniques.

Pour les CIO, cet événement permet de confronter leurs choix d’infrastructure aux retours d’expérience de pairs confrontés aux mêmes dilemmes : où placer le curseur entre performance et coûts ? Comment justifier des investissements massifs en GPU ?

Pour les CISO, c’est l’occasion de comprendre comment sécuriser des chaînes de traitement IA complexes, où les données sensibles circulent entre multiples environnements, et comment assurer la résilience face à des menaces de plus en plus sophistiquées.

Pour les CTO, les échanges éclaireront les arbitrages techniques entre différentes architectures, et les critères de choix pour bâtir un socle évolutif capable d’absorber la croissance exponentielle des usages IA.

La Matinale Silicon  vous propose deux heures pour prendre de la hauteur, confronter ses réflexions à celles d’autres décideurs, et repartir avec des clés concrètes pour l’action.

Rejoignez-nous le 19 février en vous inscrivant ici.

The post L’infrastructure à l’ère de l’IA : les choix techniques qui engagent l’avenir appeared first on Silicon.fr.

Sommet de l’IA 2026 : quelques points-clés du rapport scientifique « officiel »

10 février 2026 à 17:32

L’IA générative n’est plus seulement utilisée pour développer des malwares : elle alimente aussi leur exécution.

En novembre 2025, Google avait proposé une analyse à ce sujet. Il avait donné plusieurs exemples. Dont celui d’un dropper VBScript faisant appel à l’API Gemini pour l’aider à obscurcir son code.

L’analyse est reprise en source dans l’International AI Safety Report 2026. Il s’agit du rapport « officiel » préfigurant le Sommet de l’IA qui se tiendra en Inde du 16 au 20 février. Comme celui de l’an dernier, il donne un instantané de la compréhension scientifique des IA généralistes, sous l’angle de la sûreté. Parmi les experts impliqués, il y a, côté français, Jonathan Collas  conseiller industrie et numérique au SGDSN. Et Gaël Varoquaux (Inria), chef de projet pour le consortium Scikit-learn.

Pour cette édition, la définition des « risques émergents » a été restreinte. Il s’agit désormais de ceux « qui naissent à la frontière des capacités de l’IA ». Une manière, nous explique-t-on, de mieux se poser en complément à des initiatives telles que le panel scientifique de l’ONU sur l’IA.

Des IA plus persuasives, mais une influence « non démontrée à l’échelle »

Depuis l’an dernier, les systèmes dit de raisonnement se sont répandus. Les performances en mathématiques, code et sciences en ont particulièrement bénéficié. Côté méthodes d’entraînement, le rapport met en avant la distillation, avec l’exemple de DeepSeek-R1, dont les chaînes de pensée ont nourri DeepSeek-V3.

Des avancées, il y en a aussi eu sur le contenu que génèrent les IA. Constat, dans les grandes lignes : il est devenu plus difficile à détecter. Pour l’illustrer, le rapport cite, entre autres, les observations de chercheurs de l’université de Californie à San Diego sur un test de Turing avec GPT-4o. Dans 77 % des cas, les participants ont considéré comme d’origine humaine un texte en fait créé par le LLM.
Une autre expérience citée émane d’UC Berkeley. Elle a porté sur le clonage de voix. Dans 80 % des cas, les participants ont pris l’IA pour le locuteur d’origine.

Autre étude d’UC Berkeley, autre aspect : les capacités de persuasion dont les IA font preuve. Elles se montrent parfois plus efficaces que l’humain. Les preuves en ce sens « se sont accumulées » ces derniers mois, précise le rapport, qui en dresse un tableau récapitulatif. Centré sur les effets négatifs (propagande politique, notamment), il témoigne cependant aussi d’effets potentiellement positifs, dont la réduction de l’adhésion aux théories du complot.

L’efficacité du contenu IA par rapport au contenu que crée l’humain n’est toutefois pas démontrée à l’échelle, nous explique-t-on. Cela peut s’expliquer par le coût de distribution et par l’effet de balance que suscite, en conditions réelles, l’exposition à des points de vue antagonistes.

Cybersécurité : pas encore d’IA à tout faire, même si la détection de vulnérabilités est acquise

Sur le volet cyber, la difficulté à établir des relations de cause à effet complique l’estimation du rôle de l’IA dans la sévérité et l’échelle des attaques.

Les LLM se révèlent en tout cas performants pour découvrir des vulnérabilités. À ce sujet, on nous mentionne le dernier DARPA AI Cyber Challenge. Lors de cette compétition, un système agentique s’est hissé dans les hauteurs du classement en découvrant 77 % des failles.

Malgré ces progrès, aucune attaque intégralement autonome n’a pour le moment été signalée. Au moins un incident s’en est néanmoins approché. Il a impliqué les services d’Anthropic. Celui-ci s’en est fait l’écho en novembre 2025, estimant que l’attaquant avait automatisé, par ce biais, 80 à 90 % du travail, l’humain n’intervenant que pour des décisions critiques.

De manière générale, le rapport invite à ne pas surestimer le potentiel actuel des IA. Ne serait-ce que parce que la plupart des évaluations n’englobent que des compétences isolées ; pas des attaques de bout en bout. Jusqu’ici, les outils à disposition ont surtout accéléré ou mise à l’échelle des méthodes existantes.

L’évolution de la balance entre usages offensifs et défensifs dépendra des choix sur l’accès aux modèles, le financement de la recherche et les normes de déploiement. Le manque de méthodes standards d’assurance qualité pour les outils IA, par exemple, complique leur adoption dans des secteurs critiques. Alors que dans le même temps, les acteurs de la menace n’ont pas cette contrainte…

Conscience situationnelle ne rime pas avec perte de contrôle

Quant aux dysfonctionnements et aux risques que cela implique, il y a, dans le rapport, à boire et à manger.

Des références à plusieurs études rappellent que des modèles ont démontré des capacités de conscience situationnelle. Autrement dit, une aptitude à détecter l’environnement dans lequel ils évoluent. De là la possibilité de se comporter différemment dans un scénario d’évaluation que dans le monde réel. Ou à dégrader artificiellement ses performances pour éviter des restrictions de déploiement. Ou encore à contourner sciemment des garde-fous pour remplir à tout prix un objectif, tout en le niant par après.

Le risque d’une perte de contrôle sur le long terme demeure cependant faible, faute de capacités à maintenir un fonctionnement autonome sur la durée.
Certes, cette durée s’est allongée dans quelques disciplines, à commencer par le codage. Mais un seul grain de sable peut faire dérailler la machine, comme l’illustre une étude universitaire axée sur la perturbation des systèmes langage-vision à partir d’une pop-up.

Le biais d’automatisation s’amplifie

Concernant l’impact de l’IA sur le marché du travail, le rapport cite des études – au Danemark et aux États-Unis – qui n’ont pas démontré de corrélation forte. Mais il en mentionne aussi plusieurs ayant conclu à un déclin de la demande en profils juniors.

L’amplification du « biais d’automatisation » apparaît plus claire. Déjà prononcé avec les systèmes automatisés « non IA », le phénomène se perpétue au contact des LLM. Le rapport cite deux études qui en témoignent. L’une démontre la tendance des utilisateurs d’outils d’assistance à l’écriture à adopter le point de vue que suggère le modèle. L’autre met en lumière le processus des raccourcis mentaux : sur une tâche d’annotation assistée, les participants ont moins corrigé les suggestion erronées venant d’une IA lorsque cela exigeait un effort supplémentaire.

Illustration générée par IA

The post Sommet de l’IA 2026 : quelques points-clés du rapport scientifique « officiel » appeared first on Silicon.fr.

Naval Group et Thales accélèrent dans l’IA de défense souveraine

10 février 2026 à 16:02

Naval Group vient d’annoncer son entrée au capital de CortAIx, l’accélérateur d’IA créé par Thales en 2024, marquant une étape stratégique dans la convergence des industries françaises de défense sur le terrain de l’IA.

L’opération, dont le montant reste confidentiel, représente 20% du capital de la division française de CortAIx. Elle s’inscrit dans un engagement pluriannuel de coopération entre les deux groupes, tant sur le volume d’activité que sur les cas d’usage. Naval Group rejoint par ailleurs le conseil d’administration de l’entité, consolidant ainsi une alliance structurante autour des technologies critiques de demain.

Une IA au cœur des systèmes de combat collaboratif

L’objectif affiché est de mutualiser les compétences en matière d’intelligence artificielle appliquée au combat collaboratif, aux systèmes d’aide à la décision et à la guerre électronique. Quinze ingénieurs de Naval Group rejoindront dès mars les équipes de CortAIx, qui comptent quelque 800 spécialistes répartis sur cinq sites. Un nouveau centre de recherche à Ollioules (Var) ouvrira dès mai, renforçant la proximité entre les équipes R&D des deux partenaires.

« Innover dans le secteur de la défense requiert de plus en plus d’intelligence artificielle. C’est un démultiplicateur de performance opérationnelle », souligne Éric Papin, directeur technique de Naval Group dans les Echos. De son côté, Mickael Brossard, directeur de CortAIx, évoque une « mutualisation très forte » destinée à accélérer la montée en puissance de solutions souveraines et sécurisées.

Des technologies critiques pour la souveraineté européenne

Les ingénieurs de CortAIx développent depuis deux ans des modèles d’IA destinés à des applications sensibles : capteurs du Rafale, radars de surveillance, reconnaissance faciale ou pilotage d’essaims de drones. Ces technologies opèrent à la fois dans des environnements embarqués et en data centers sécurisés, en partenariat avec des acteurs français tels que Mistral AI.

Thales et Naval Group pourront également s’appuyer sur la puissance de calcul du supercalculateur inauguré par l’Agence ministérielle pour l’intelligence artificielle de défense (Amiad), livré en 2025 par HPE et Orange, pour le traitement de données classifiées.

Un écosystème français en plein foisonnement

Cette union s’inscrit dans un contexte d’effervescence autour de l’IA de défense en France. Dassault Aviation a déjà noué un partenariat technologique avec CortAIx fin 2025, tandis que sa participation dans la start-up Harmattan AI, valorisée 1,4 milliard $, témoigne de l’émergence d’un tissu industriel compétitif.

L’État, actionnaire à 62 % de Naval Group et 27 % de Thales, joue un rôle d’amplificateur dans cette stratégie de souveraineté industrielle et numérique. L’articulation de ces champions nationaux autour de CortAIx vise à positionner la France parmi les leaders mondiaux de l’IA de défense, à l’heure où les budgets militaires européens connaissent une croissance sans précédent.

The post Naval Group et Thales accélèrent dans l’IA de défense souveraine appeared first on Silicon.fr.

IA dans le BTP : la révolution en mode test

10 février 2026 à 15:36

Entre enthousiasme et prudence, le secteur du Bâtiment et des Travaux Publics apprivoise progressivement l’intelligence artificielle. Si les outils d’IA générative se diffusent rapidement dans les fonctions administratives, l’intégration sur les chantiers reste encore balbutiante. Une étude inédite de l’Observatoire des métiers du BTP révèle les freins et les opportunités d’une transformation qui s’annonce inéluctable.

Menée début 2025 auprès de 621 dirigeants d’entreprises, elle révèle que moins de 10% des structures déclarent utiliser actuellement des solutions d’IA. Un retard ? Pas vraiment. Plutôt une prudence de bon aloi dans un secteur habitué à des transformations progressives et où l’échec d’un outil peut se mesurer en vies humaines, pas en lignes de code.

Car si 36% des entreprises se disent intéressées par un déploiement futur, les grandes manœuvres n’ont pas encore commencé. « On a vu des applications très intéressantes par des gens qui travaillent avec des monuments historiques », raconte le dirigeant d’une TPE du Bâtiment. « Ils font voler des drones qui scannent les façades et génèrent le plan au millimètre près. Mais ça intéresse peu de monde pour l’instant. »

L’IA générative s’invite dans les bureaux

Si c’est une révolution qui se profile, elle commence par les tâches les moins valorisées : la bureautique. Les assistants comme ChatGPT ou Copilot se diffusent à bas bruit dans les fonctions supports. Rédaction de mails, correction de documents, synthèse de réunions : autant de corvées administratives allégées par ces outils accessibles sur smartphone.

« Les conducteurs de travaux s’enregistrent avec ChatGPT pendant les réunions de chantier : l’IA fait les synthèses et prépare les mails automatiquement », explique le dirigeant d’une PME spécialisée dans la construction de maisons individuelles. « Ce sont avant tout des gens de terrain, avec une vraie valeur ajoutée sur le contrôle et le management des équipes. Là, clairement, ça leur libère du temps. »

L’usage peut même devenir plus sophistiqué. Une comptable d’une TPE a ainsi créé des « petits robots » avec l’IA générative : désormais, lorsqu’une facture arrive dans la GED, le système ouvre le document, identifie l’artisan et le chantier, crée les dossiers nécessaires et range le tout. « Un vrai changement de paradigme dans notre gestion quotidienne », se félicite le dirigeant.

Ces usages « masqués » ou  » Shadow AI » soulèvent toutefois la question de l’encadrement par l’entreprise. Car sans politique claire, chacun bidouille dans son coin avec des outils grand public dont la sécurité des données n’est pas garantie.

Sur les chantiers, des promesses encore lointaines

Au-delà des bureaux, les applications métiers restent largement au stade exploratoire. L’IA pourrait pourtant transformer en profondeur la planification des chantiers. Grâce à des algorithmes prédictifs, certaines solutions analysent en temps réel l’avancement des travaux, les conditions météorologiques et la disponibilité des ressources pour anticiper les retards et réajuster automatiquement les plannings.

La sécurité constitue un autre terrain d’expérimentation prometteur. Des systèmes de vision par ordinateur, intégrés à des caméras sur casques ou engins, peuvent identifier le non-port d’équipements de protection ou la présence de personnes dans des zones interdites. Objectif : passer d’une prévention réactive à une approche prédictive, capable d’anticiper les accidents avant qu’ils ne surviennent.

Mais ces innovations restent confinées aux grands groupes et à quelques projets pilotes. « L’IA ne pourra être efficace que si elle s’applique dans un environnement un peu plus normé et organisé que ce qui est l’ordinaire du chantier dans notre secteur », tempère un dirigeant de PME.

Les freins à l’adoption : technique, économique et culturel

Premier obstacle : la qualité des données. L’IA ne peut délivrer son potentiel que si elle s’appuie sur des informations fiables et bien structurées. Or, dans nombre d’entreprises du BTP, les données sont éparpillées, mal rangées et stockées dans des formats hétérogènes. « Pour avoir de la donnée exploitable, il faut que ça soit structuré, organisé, propre. Dans le monde du Bâtiment aujourd’hui, on est très, très loin. » martèle un directeur technique d’ETI.

Deuxième frein : l’absence d’interopérabilité entre les nombreux logiciels du secteur. Les différents outils numériques utilisés – devis, BIM, suivi de chantier – communiquent mal entre eux, rendant difficile la mutualisation des données. « J’ai plein de solutions différentes : pour les devis, la facturation, la banque, la comptabilité… mais rien n’est interconnecté », déplore un autre dirigeant. « Je passe 70% de mon temps à faire des passerelles entre les outils. »

L’équation économique reste incertaine, particulièrement pour les TPE-PME qui composent 94% du tissu entrepreneurial du Bâtiment. Pour ces structures, déployer une solution d’IA nécessite un budget conséquent avec un retour sur investissement difficilement chiffrable. « Ce que nos entreprises ont besoin de voir pour sauter le pas, c’est le retour sur investissement », souligne une organisation professionnelle. « Et pour l’instant, ceux qui viennent leur proposer des produits ne donnent pas vraiment d’éléments là-dessus. »

Enfin, les obstacles culturels ne sont pas négligeables. Dans un secteur historiquement attaché au savoir-faire manuel et à la transmission par le compagnonnage, l’idée qu’un algorithme puisse orienter des décisions techniques suscite des réticences. « Le savoir-faire, c’est du concret, du geste, de la mémoire, du ressenti », résume un chef d’entreprise. « Si on délègue trop aux outils automatiques, on va finir par perdre cette intelligence du terrain. »

L’ancienneté des dirigeants constitue un autre frein. Dans un secteur où beaucoup de patrons approchent de la retraite, l’investissement dans des technologies dont ils ne verront pas les fruits complets ne semble pas prioritaire. « On a toute une catégorie de dirigeants vieillissants qui se disent que bientôt ils ne seront plus là, alors pourquoi s’embêter à intégrer de l’innovation », observe un organisme de formation.

Les compétences, clé de voûte de la transformation

Face à ces défis, la montée en compétences apparaît comme le levier prioritaire. Mais avant même de parler d’IA, le secteur doit d’abord rehausser son niveau général de littératie numérique. « Les entreprises ne sont pas prêtes parce qu’elles n’ont pas fait cette partie de structuration en amont », constate un formateur. « Il y a toute une politique de la donnée à mettre en place avant d’intégrer tout ça. »

En 2024, Constructys a financé 1 762 actions de formation sur l’intelligence artificielle, un chiffre qui a bondi à 4 406 en 2025. Mais l’analyse des intitulés révèle une offre encore très centrée sur la sensibilisation générale, avec peu de contextualisation aux métiers du BTP. La majorité des formations privilégient la découverte de l’IA plutôt que la montée en compétences opérationnelles.

Les besoins identifiés s’articulent autour de trois niveaux. D’abord, un socle minimal de culture numérique : maîtrise des règles de gestion documentaire, gouvernance de la donnée, sensibilisation aux usages collaboratifs. Ensuite, des compétences intermédiaires d’ingénierie d’usage et de conduite du changement, pour identifier les cas d’usage pertinents et mobiliser les équipes. Enfin, des compétences avancées sur l’interopérabilité, l’automatisation et la sécurité des systèmes.

Une transformation par paliers

L’étude de l’Observatoire des métiers du BTP dessine les contours d’une transformation qui se fera par étapes. Les fonctions supports seront les premières concernées, avec une évolution vers des rôles de supervision et de contrôle des contenus produits automatiquement. Les métiers de la conception, déjà familiers du BIM, intégreront progressivement des outils d’IA pour automatiser les tâches répétitives de vérification et de détection d’erreurs.

Sur les chantiers, les conducteurs de travaux deviennent peu à peu des « data managers locaux », surveillant des tableaux de bord numériques tout en conservant leur expertise terrain. Les métiers de la maintenance évoluent vers la maintenance prédictive, où l’anticipation des pannes prime sur le dépannage.

« On est dans une phase où les outils sont là, mais il faut apprendre à s’en servir », résume un directeur technique. « L’IA n’est pas un pilote automatique : c’est un assistant. Le vrai savoir-faire reste dans la coordination humaine. »

Source : Observatoire des métiers du BTP, Étude sur la perception et l’intégration des outils d’intelligence artificielle dans les entreprises du BTP, janvier 2026

The post IA dans le BTP : la révolution en mode test appeared first on Silicon.fr.

Pourquoi les assistants de codage n’échappent pas au paradoxe de la productivité

10 février 2026 à 12:50

Si les assistants de codage ne font pas tant gagner en productivité, c’est parce qu’ils cannibalisent la phase pendant laquelle les écarts de spécifications sont le plus souvent détectés.

Certes, le constat émane d’une start-up américaine qui en a fait son fonds de commerce. Mais la réflexion qui y a abouti a son intérêt, notamment par les indicateurs dont elle s’est nourrie.

Trois stats pour poser le problème

La semaine dernière, cette start-up – Bicameral AI – avait publié un « manifeste », intitulé « Les assistants de codage résolvent le mauvais problème ». Elle avait ouvert son propos sur trois statistiques.

La première est sourcée d’Index.dev (plate-forme de recrutement tech). Bicameral AI la présente ainsi : les équipes ayant utilisé l’IA ont réalisé 21 % de tâches en plus, mais le delivery global – au niveau de leur organisation – ne s’est pas amélioré.

Index.dev a en fait lui-même tiré ce chiffre du rapport « The AI Productivity Paradox », que Faros AI (plate-forme de développement) avait publié à l’été 2025. Il apparaît que Bicameral AI en fait un résumé incomplet : le taux de 21 % vaut pour les équipes qui ont un usage important (« extensive ») de l’IA. Et le delivery est jugé spécifiquement sur les métriques DORA.

Deuxième statistique : les développeurs expérimentés ayant utilisé des assistants de codage ont été 19 % plus lents, alors qu’ils croyaient être plus rapides. Difficile de la vérifier : l’article qui en rend compte, publié en janvier 2025, n’est plus accessible. Son auteur : METR, organisation à but non lucratif qui étudie l’impact sociétal de l’IA. Sa fondatrice est une ancienne de DeepMind et d’OpenAI.

Troisième statistique : 48 % du code généré par IA contient des vulnérabilités. Elle est censée provenir d’Apiiro (un spécialiste de l’AppSec) et dater de 2024. Le lien que fournit Bicameral AI pointe toutefois vers un post de septembre 2025 qui ne donne pas directement ce chiffre. Apiiro a tout de même régulièrement donné des estimations proches (« plus de 40 % » en avril 2025, « jusqu’à 50 % » en août 2025…).

Quand l’IA fait perdre le temps qu’elle a fait gagner

Le manifeste se poursuit sur une référence à un fil Reddit avec près d’un millier de commentaires. Un développeur senior y témoigne de l’expérience – positive – de son équipe avec l’IA.

Bicameral AI pointe un des commentaires : le plus difficile n’est pas d’écrire le code, mais de gérer les cas particuliers qui se présentent au cours de l’implémentation. La start-up rebondit sur cet aspect : les assistants de codage sont connus pour ne pas faire remonter les écarts de spécifications, mais au contraire les dissimuler, affirme-t-elle. Par conséquent, on passe davantage de temps sur la revue de code… alors qu’avec l’IA, les managers en attendent davantage.

Dans ce contexte, le taux de développeurs considérant que les managers ne saisissent pas leurs points de douleur progresse nettement : 63 % en 2025, contre 49 % en 2024.

Ces chiffres proviennent du dernier sondage State of DevEx d’Atlassian. Bicameral AI le reprend pour annoncer que les assistants de codage font gagner aux développeurs près de 10 heures par semaine. Mais que l’accroissement des inefficacités sur le reste du cycle de développement anéantit presque ce gain.

Là aussi, la start-up fait un raccourci. Atlassian dit en fait que les outils GenAI en général font gagner au moins 10 heures par semaine à 68 % des développeurs. Mais qu’en même temps, 50 % perdent plus de 10 heures sur des tâches autres que le code*.

Ce fil conducteur mène Bicameral AI à une observation : le décalage entre intention métier et implémentation se crée lors des réunions produit. La start-up en veut pour preuve un sondage qu’elle a mené auprès de développeurs. Dans ce cadre, la majorité (63 %) ont déclaré découvrir des contraintes inattendues après s’être engagés sur l’implémentation.

Les écarts de spécifications, repérés surtout lors de l’implémentation

Les commentaires sur le manifeste et la collecte de réponses supplémentaires au sondage ont entraîné la publication, cette semaine, d’un deuxième article. Bicameral AI y confirme que le taux de développeurs découvrant les contraintes techniques au stade de l’implémentation est resté élevé (50 %).

La start-up mentionne un autre chiffre : 70 % déclarent que ces contraintes doivent être connues au-delà de leur équipe, auprès de populations qui n’interagissent pas régulièrement avec la codebase. Seulement, assure-t-elle, cette communication est difficile. Les pratiques de documentation des décisions n’aident pas : 52 % des répondants à son sondage transmettent les contraintes techniques par copier-coller sur Slack et 25 % les évoquent oralement, sans trace écrite. Plus globalement, 35 % des communications ne produisent aucun artefact persistant.

Bilan : dans la pratique, le conflit entre les specs produit et la réalité de l’engineering ne devient apparent qu’à la phase d’implémentation. Or, dès lors que l’IA phagocyte cette phase, le travail de découverte doit remonter à la phase de planification, sous peine de glisser sinon vers la phase de revue de code… et d’en être d’autant plus compliquée.

Le salut dans les prompts ? Le paradoxe de l’œuf et de la poule

Bicameral part ici du principe que les assistants de codage sont « accommodants » : ils peuvent demander des clarifications, mais ne suggèrent généralement pas d’explorer d’autres options.
« Il suffit de demander à l’IA de te challenger », a-t-on rétorqué, en substance, à la start-up. Elle y répond sous l’angle de l’œuf et de la poule : pour prompter correctement, il faut connaître au préalable la manière dont les contraintes techniques et produit peuvent entrer en conflit. Une connaissance qui, en l’état, ne fait donc essentiellement surface qu’à la phase d’implémentation…

Le traitement du problème en amont pourrait, contre-intuitivement au premier abord, s’appuyer sur des LLM. Lesquels examineraient comment une spéfication donnée pourrait impacter des structures de code existantes. Sur cette base, on pourrait imaginer un affichage en tant réel du contexte d’ingénierie pendant une réunion. Option qu’ont d’ailleurs suggérée certains participants au sondage.

* En 2024, IDC expliquait que le codage ne représentait que 16 % de leur temps de travail des développeurs. Contre 14 % pour l’écriture de spécifications et de tests, 13 % pour la sécurité, 12 % pour la surveillance des applications, etc.

Illustration générée par IA

The post Pourquoi les assistants de codage n’échappent pas au paradoxe de la productivité appeared first on Silicon.fr.

Workday : retour aux sources avec Aneel Bhusri pour redresser la barre

10 février 2026 à 11:48

Workday vient d’annoncer un changement de direction spectaculaire. Aneel Bhusri, co-fondateur de l’éditeur, reprend immédiatement les commandes en tant que CEO, remplaçant Carl Eschenbach. Une décision qui intervient après une année désastreuse en Bourse : le titre a plongé de 41% sur douze mois.

Carl Eschenbach quitte non seulement son poste de directeur général mais également son siège au conseil d’administration. Il restera néanmoins conseiller stratégique auprès de Bhusri. Son départ lui vaudra une indemnité de 3,6 millions $, assortie d’une acquisition accélérée de ses stock-options en cours.

Pour Aneel Bhusri, le retour se monnaie cher : 135 millions $ en actions, soumises à des conditions de temps et de performance, auxquels s’ajoute un salaire de base de 1,25 million $, selon les documents transmis à la SEC.

Une histoire de succession complexe

L’histoire récente de Workday ressemble à un jeu de chaises musicales. Bhusri avait co-fondé l’entreprise en 2005, exercé seul la fonction de CEO entre 2014 et 2020, avant d’accepter un partage du pouvoir. Eschenbach avait été nommé co-CEO fin 2022, aux côtés du fondateur, avant que ce dernier ne se retire en 2024.

« Nous entrons dans l’un des moments les plus décisifs de notre histoire. L’IA est une transformation plus importante que le SaaS – et elle définira la prochaine génération de leaders du marché », déclaré Aneel Bhusri dans un communiqué officiel.

Workday, spécialisé dans les logiciels de gestion des ressources humaines et autres tâches administratives, fait partie de ces éditeurs d’applications qui peinent à convaincre Wall Street à l’ère de l’intelligence artificielle. Sous la direction d’Eschenbach, l’entreprise avait affiché une nouvelle priorité à la rentabilité, annonçant des suppressions de postes et promettant d’utiliser l’IA pour rationaliser ses propres opérations.

La semaine dernière encore, Workday avait annoncé le licenciement d’environ 400 employés, soit 2% de ses effectifs de 20.600 personnes fin octobre, dans le but de mieux investir dans ses domaines prioritaires.

Le retour de Bhusri apparaît comme un pari : celui de retrouver l’ADN entrepreneurial et l’agilité technologique face aux bouleversements de l’IA. Reste à savoir si cette cure de jouvence suffira à reconquérir les investisseurs.

The post Workday : retour aux sources avec Aneel Bhusri pour redresser la barre appeared first on Silicon.fr.

La dernière faille Ivanti devient un poil à gratter

9 février 2026 à 17:14

Les chercheurs en sécurité vont commencer à scanner les appliances connectées à Internet. Cela compliquera la détection des « vraies » tentatives d’exploitation.

L’avertissement est signé Ivanti. Il s’adresse aux utilisateurs de la solution EPMM (Endpoint Manager Mobile ; ex-MobileIron Core). En toile de fond, la découverte de deux vulnérabilités critiques. L’une (CVE-2026-1281) affecte la fonctionnalité de distribution interne d’applications. L’autre (CVE-2026-1340), la configuration du transfert de fichiers Android. Elles ont le même score de criticité (9,8)… et la même conséquence potentielle : l’exécution de code à distance sans authentification.

Ivanti en a révélé l’existence le 29 janvier, accompagnant son bulletin d’un correctif. L’éditeur déclarait alors qu’un « nombre très limité de clients » avaient été touchés. Peu après, un PoC était apparu.

« Considérer tout système comme compromis »

L’ANSSI néerlandaise (NCSC-NL) suit le dossier de près. Au fil des jours, elle est devenue plus alarmiste.

Le 2 février, l’agence avait noté que la vulnérabilité CVE-2026-1281 était activement exploitée. Elle recommandait aux utilisateurs d’EPMM de la joindre, le correctif n’étant pas suffisant en cas de compromission.

Le surlendemain, le NCSC-NL admettait que l’exploitation était « bien plus répandue qu’on ne le pensait ». Elle appelait tout simplement à considérer tout système comme étant compromis. Et ainsi à modifier les mots de passe de tous les comptes, à renouveler les clés privées et à surveiller le trafic interne.

Dans son dernier update, du 9 février, elle explique avoir identifié plusieurs organisations exploitant la vulnérabilité en question. Elle permet d’exfiltrer la base de données MIFS (MobileIron File Service). Et de récupérer ainsi des informations sur les appareils enregistrés. Notamment IMEI, numéros de téléphone et détails sur la SIM. Mais aussi utilisateurs LDAP et jetons d’accès et authentifiants Office 365.

Restaurer les sauvegardes… ou pas

Entre-temps, le NCSC-NL a contribué au développement d’un script de détection des intrusions. Ivanti l’a publié le 6 février, en parallèle d’IoC et de mesures de défense.

Sur les instances touchées avant la divulgation des vulnérabilités, on a découvert des fichiers malveillants dans le dossier racine, ainsi que dans /tmp et /var/tmp. Souvent d’un ou deux caractères, sans extension, parfois compressés avec 7z/LMZA2. Le favicon a par ailleurs été ciblé pour injecter un webshell.

Après la divulgation, les techniques se sont diversifiées, à tel point qu’il est difficile de les catégoriser en une liste d’IoC. Ivanti a toutefois observé un pattern consistant à créer des fichiers semblant être des pages d’erreur HTTP – par exemple, 401.jsp – pour héberger des webshells.

En date du 6 février, l’éditeur recommandait deux options en cas de compromission. Soit restaurer depuis des backups ou des instantanés de VM, soit construire un nouvel environnement et y migrer les données. Il conseillait aussi de changement le mot de passe de tout compte local et de remplacer le certificat public utilisé pour l’EPMM.

Du côté du NCSC-NL, on déconseille l’option restauration, au motif que les sauvegardes peuvent être compromises. Surtout si le script de détection produit des résultats…

La Commission européenne, victime probable

Le correctif n’entraîne pas d’indisponibilité, mais il ne survit pas à un saut de version. Ivanti promet de l’intégrer dans la prochaine release d’EPMM, prévue « au cours du premier trimestre 2026 ».

La Commission européenne n’a pas affirmé faire partie des victimes. Mais le 6 février, elle a déploré la compromission de « l’infrastructure centrale » utilisée pour gérer ses terminaux mobiles. Une attaque serait survenue le 30 janvier. Circonscrite « en 9 heures », elle pourrait avoir donné accès à des noms et à des numéros de téléphone.

Illustration générée par IA

The post La dernière faille Ivanti devient un poil à gratter appeared first on Silicon.fr.

Le Health Data Hub vers un hébergement SecNumCloud

9 février 2026 à 15:46

Cette fois c’est certain, la Plateforme des données de santé, couramment appelée Health Data Hub, va quitter Microsoft Azure pour un hébergeur labellisé SecNumCloud.

En avril dernier, Clara Chappaz, l’ex ministre déléguée chargée de l’intelligence artificielle et du numérique, s’était engagée à lancer un appel d’offres pour trouver un fournisseur de services Cloud à la plateforme de Microsoft.

Initialement prévue en deux temps avec une solution intercalaire puis une solution cible, la migration a été simplifiée. Selon un communiqué officiel, la mission d’expertise mobilisée par le Gouvernement a confirmé qu’il est techniquement possible d’engager immédiatement la migration complète vers la solution cible. L’appel d’offres lancé à l’été 2025 pour la solution intercalaire a donc été abandonné.

Une nouvelle plateforme sélectionnée fin 2026

Une copie complète de la base principale du Système national des données de santé sera hébergée d’ici fin 2026. Les fournisseurs de services cloud seront sollicités via le marché « Nuage Public », avec une attribution prévue fin mars 2026.

La Plateforme des données de santé a été créée pour faciliter l’accès sécurisé aux données de santé au service de la recherche, de l’innovation et du pilotage des politiques publiques. À ce jour, elle a accompagné plus de 233 projets et contribué à l’organisation de 29 appels à projets en partenariat avec de nombreux acteurs publics et privés.

Le choix de Microsoft Azure, bien que certifié HDS (Hébergeur de données de santé), a suscité de vives critiques. Plusieurs associations, la CNIL et le Conseil d’État avaient exprimé leurs inquiétudes concernant la dépendance envers un acteur soumis au droit américain, en particulier au Cloud Act, qui autorise les autorités américaines à accéder à certaines données hébergées par des entreprises basées aux États-Unis.

Du côté des acteurs publics et privés, la mesure est globalement saluée. L’Alliance pour le numérique en santé (ANS) souligne qu’elle offrira « un cadre clair pour les coopérations et les projets d’intelligence artificielle médicale ».

The post Le Health Data Hub vers un hébergement SecNumCloud appeared first on Silicon.fr.

❌