Vue normale

Les IA préfèrent Markdown : Cloudflare expérimente une conversion à la source

17 février 2026 à 14:33

Avec les IA, mieux vaut parler Markdown que HTML.

Cloudflare, comme bien d’autres, invite à privilégier ce format. Tant pour la lisibilité que pour les économies de tokens. Jusque-là, il proposait une API de conversion intégrée notamment dans son offre Workers AI*.

S’y ajoute désormais une fonctionnalité « automatisée » intégrée à la console. Dite « Markdown for Agents », elle est en bêta, sans surcoût, pour les abonnés Pro, Business et Enterprise – ainsi que sur SSL for SaaS.

Sur les zones qui utilisent des en-têtes de négociation de contenu, elle déclenche – au possible – une conversion des pages HTML à la volée lorsqu’une IA exprime sa préférence pour le format Markdown. Cela passe par l’en-tête Accept et le paramètre text/markdown. Un système qu’exploitent déjà des agents tel Claude Code.

La réponse inclut systématiquement des en-têtes x-markdown-tokens et Content-Signal. Le premier donne une estimation du poids du document Markdown en tokens. Le second signale, par défaut, que le contenu peut être utilisé pour l’entraînement d’IA comme pour l’input (inférence) et pour les résultats de recherche.

* Cette option gère la conversion d’autres formats que le HTML, ainsi que le résumé du contenu.

À consulter en complément :

De l’UX à l’AX : penser les interfaces pour les agents IA
A2A, ACP, agents.json… Que deviennent ces protocoles agentiques ?
ROI de l’IA générative : la tentation du prisme court-termiste
Les acquisitions de Cloudflare sous l’ère ChatGPT

Illustration générée par IA

The post Les IA préfèrent Markdown : Cloudflare expérimente une conversion à la source appeared first on Silicon.fr.

Qu’est-ce que WebMCP, qui vise la standardisation W3C ?

17 février 2026 à 13:24

Ajoutez une cinquantaine de lignes de code à votre site… et il devient un serveur MCP.

À l’été 2025, un développeur, ancien d’Amazon, avait lancé un projet open source portant cette promesse : MCP-B (« MCP for the Browser »). L’idée était d’exploiter JavaScript pour exposer les fonctionnalités de pages web aux agents IA directement dans les navigateurs. Le protocole sous-jacent s’appelait WebMCP. Il reposait notamment sur un mécanisme de transport permettant la communication client-serveur au sein d’un même onglet.

Un premier brouillon de spécification W3C

L’initiative existe toujours. Mais elle est aujourd’hui emmenée par Google et Microsoft, sous la bannière WebMCP et sous l’aile du W3C. Le fondement demeure : exposer des « outils » sous forme de fonctions JavaScript, avec des schémas structurés et des descriptions en langage naturel.

Une première ébauche de spécification vient d’être publiée. Elle introduit une interface window.navigator.modelContext. Et avec elle, plusieurs méthodes pour gérer la liste des outils :

  • provideContext, pour l’actualiser intégralement
    Idéal pour les applications monopage, où il peut être souhaitable de présenter des outils différents en fonction de l’état de l’UI.
  • registerTool et unregisterTool, respectivement pour ajouter et supprimer des outils sans réintialiser toute la liste

Les fonctions peuvent éventuellement être asynchrones. Il est possible d’en dédier la gestion à des workers.

Google propose depuis peu de tester WebMCP dans le programme EPP de Chrome, à travers deux API. Une déclarative pour permettre aux agents d’effectuer des actions standards définissables dans les formulaires HTML. Une impérative pour les interactions dynamiques nécessitant JavaScript.

La sécurité, pas encore au cœur des travaux

Sur le papier, WebMCP ouvre la voie à une codebase unique pour l’UI et l’intégration des agents. Tout en favorisant la confidentialité (traitement local) et la collaboration homme-machine (même interface, avec davantage de visibilité sur les actions).
L’arbitrage des accès est laissé au navigateur, qui peut appliquer ses propres politiques de sécurité. Cette intermédiation du flux de contrôle assure par ailleurs une rétrocompatibilité entre les versions de WebMCP.

Dans la pratique, il n’existe pas de mécanisme intégré pour synchroniser l’UI et l’état de l’application. Il n’en existe pas non plus pour découvrir les outils d’un site sans le visiter. Sur ce dernier point, le projet a exploré l’utilisation d’un manifeste que les agents récupéreraient en HTTP GET. Il l’a complété par un mécanisme d’exécution alternatif séparant la définition d’un outil et la fonction d’implémentation, en traitant les appels comme des événements.

La section sécurité/confidentialité de la spec est actuellement vide. Sur ce sujet, il y a, en l’état, bien plus de questions que de réponses. Des domaines d’attaque existants (CSRF, XSS…) s’appliqueraient-ils de façon spécifique à WebMCP ? Quels risques si on l’associe à d’autres fonctionnalités émergentes comme Web AI et la Prompt API ?…

Illustration générée par IA

The post Qu’est-ce que WebMCP, qui vise la standardisation W3C ? appeared first on Silicon.fr.

Anthropic vs Pentagone : la bataille de l’IA militaire qui fait trembler la Silicon Valley

17 février 2026 à 12:10

C’est une guerre froide au cœur de la révolution de l’intelligence artificielle. D’un côté, Anthropic, fondée par d’anciens chercheurs d’OpenAI, qui se veut le champion de l’IA « responsable ». De l’autre, Pete Hegseth, secrétaire à la Défense de Donald Trump, déterminé à placer l’IA au cœur de toutes les opérations militaires américaines.

Entre les deux, des mois de négociations tendues, un contrat à 200 millions $, et désormais une menace de rupture fracassante, révélée par Axios.

L’ultimatum Hegseth

Selon le média en ligne, Pete Hegseth est « proche » de couper les liens commerciaux avec Anthropic et d’aller beaucoup plus loin : désigner la société comme un « risque pour la chaîne d’approvisionnement ». Une mesure radicale qui contraindrait tous les sous-traitants du Pentagone à choisir leur camp  et à couper à leur tour toute relation avec Anthropic s’ils veulent conserver leurs contrats militaires. Ce type de sanction est habituellement réservé aux adversaires étrangers, comme la Chine ou la Russie.

Un haut responsable du Pentagone a confié à Axios, sans prendre de gants : « It will be an enormous pain in the ass to disentangle, and we are going to make sure they pay a price for forcing our hand like this. » Traduction libre : ce sera une immense pagaille à démêler, et le Pentagone compte bien faire payer à Anthropic le fait de l’avoir contraint à agir.

Le porte-parole en chef du Pentagone, Sean Parnell, a confirmé  la mise sous revue de la relation : « Notre nation exige que ses partenaires soient prêts à aider nos soldats à gagner dans n’importe quel combat. En définitive, il s’agit de nos troupes et de la sécurité du peuple américain. »

La ligne rouge de Dario Amodei

Qu’est-ce qui a bien pu provoquer une telle escalade ? Le point de friction central est simple à énoncer, mais complexe à trancher : Anthropic refuse de laisser le Pentagone utiliser Claude « à toutes fins légales (all lawful purposes) ». La formule, apparemment anodine, recouvre en réalité deux lignes rouges qu’Anthropic refuse de franchir : la surveillance de masse des citoyens américains et les armes létales entièrement autonomes, c’est-à-dire des systèmes capables de tuer sans intervention humaine.

Mais selon une source proche du dossier citée par Axios, les hauts responsables de la défense étaient frustrés par Anthropic depuis un certain temps et ont « saisi l’opportunité de déclencher un affrontement public ». Autrement dit : la crise n’est pas totalement spontanée. Elle a été, au moins en partie, délibérément orchestrée par le Pentagone.

Pour justifier sa prudence, un responsable d’Anthropic a expliqué à Axios que les lois existantes « n’ont en aucune façon rattrapé ce que l’IA peut faire ». Le risque est concret : avec Claude, le Pentagone pourrait analyser en continu l’ensemble des publications sur les réseaux sociaux de chaque Américain, croisées avec des données publiques comme les listes électorales, les permis de port d’arme ou les autorisations de manifestation, pour établir automatiquement des profils de surveillance civile. Une perspective qui alarme bien au-delà d’Anthropic.

Claude, seul modèle dans les systèmes classifiés

L’ironie de la situation, c’est qu’Anthropic occupe aujourd’hui une position stratégique unique au sein de l’appareil militaire américain. Selon Axios, Claude est le seul modèle d’IA actuellement disponible dans les systèmes classifiés de l’armée américaine. Mieux : la technologie est profondément intégrée dans les opérations militaires, et huit des dix plus grandes entreprises américaines utilisent Claude dans leurs workflows. Rompre avec Anthropic serait, admet même un haut responsable de l’administration, « une complication » : « Les modèles concurrents sont tout simplement en retard sur les applications gouvernementales spécialisées. »

C’est précisément ce levier qu’a utilisé le Pentagone pour muscler ses négociations avec OpenAI, Google et xAI. Les trois ont accepté de lever leurs garde-fous pour les systèmes non classifiés. Le Pentagone se dit confiant qu’ils accepteront également le standard « all lawful use » pour les systèmes classifiés. Mais une source proche de ces discussions tempère : beaucoup de choses restent encore à décider avec ces trois acteurs. Et aucun n’est pour l’instant présent sur les réseaux classifiés — le domaine réservé d’Anthropic.

L’ombre de l’opération Maduro

Le bras de fer a pris une tournure plus dramatique encore avec la révélation que Claude avait été utilisé lors de l’opération militaire américaine ayant conduit à la capture du président vénézuélien Nicolás Maduro en janvier dernier, via le partenariat d’Anthropic avec la société de logiciels Palantir.

Selon Axios, un cadre d’Anthropic a pris contact avec un cadre de Palantir après coup pour s’enquérir de l’usage qui avait été fait de Claude lors du raid; Une démarche interprétée par les responsables du Pentagone comme une désapprobation implicite. « Cela a été soulevé d’une manière à suggérer qu’ils pourraient ne pas approuver l’utilisation de leur logiciel, car il y a eu des tirs réels lors de ce raid, des gens ont été blessés », a déclaré le responsable américain.

Anthropic a nié avoir « discuté de l’utilisation de Claude pour des opérations spécifiques avec le Département de la guerre », selon son porte-parole.

Face à l’escalade, Anthropic reste officiellement serein. « Nous avons des conversations productives, de bonne foi, avec le Département de la guerre pour continuer notre travail et traiter correctement ces problèmes nouveaux et complexes », a indiqué un de ses porte-parole. Et d’affirmer que l’entreprise restait « engagée dans l’utilisation de l’IA de pointe au soutien de la sécurité nationale américaine »  soulignant au passage qu’Anthropic a été le premier à déployer son modèle sur des réseaux classifiés.

The post Anthropic vs Pentagone : la bataille de l’IA militaire qui fait trembler la Silicon Valley appeared first on Silicon.fr.

{ Tribune Expert } – Souveraineté numérique : le virage open source que les entreprises ne peuvent plus ignorer

17 février 2026 à 11:43

La souveraineté numérique n’est plus seulement un objectif stratégique optionnel pour les entreprises européennes, mais une exigence de conformité. Les différents cadres réglementaires en vigueur (NIS2, DORA, Cyber Resiliency Act au niveau européen, SecNumCloud au niveau local…) incluent des exigences précises en matière de transparence, de traçabilité et de réversibilité des infrastructures numériques.

Pour les intégrer à leur stratégie et se mettre en conformité, l’open source apparaît comme l’une des approches technologiques les plus viables pour les entreprises, car elle adresse trois piliers fondamentaux de la souveraineté numérique : offrir des solutions pour s’aligner avec la conformité réglementaire, faciliter la résilience opérationnelle et favoriser l’indépendance technologique. Le choix de l’open source, en plus d’aider à protéger les entreprises des risques réglementaires actuels, constitue une solution d’avenir sur le long terme.

Conformité réglementaire et obligations légales

L’Union européenne impose désormais un cadre réglementaire qui structure les choix technologiques des entreprises : NIS2 a pour objectif de minimiser les risques pour les SI des organisations essentielles (états, fournisseurs d’énergie ou télécoms) et impose une gestion auditable de la sécurité ; DORA, sa déclinaison pour les institutions financières, met en avant la résilience tant technique que opérationnelle et impose à ce titre de diversifier les fournisseurs tout en démontrant la réversibilité des briques de son SI ; enfin, le Cyber Resiliency Act (CRA) exige une cartographie exhaustive des composants logiciels, incluant leur cycle de vie et la mise à disposition des correctifs de sécurité.

Suivant leur secteur ou leurs enjeux en termes de souveraineté, les organisations et les entreprises peuvent être tenues de permettre un basculement rapide vers un autre prestataire de services en cas d’incident – ce qui nécessite d’éviter toute concentration chez un même fournisseur – ou encore à privilégier la portabilité des données et des applications dans un souci de réversibilité.

L’open source aide à répondre à ces obligations, car le code source ouvert permet l’auditabilité par des tiers indépendants; les licences encadrant l’usage de l’open source permettent également de continuer à utiliser les technologies indépendamment de l’existence d’un contrat de support avec des éditeurs ; enfin, la nature même du logiciel open source et la mise à disposition d’outils spécifiques facilitent grandement l’inventaire et l’audit des composants logiciels fréquemment exigés dans le cadre des réglementations.

Résilience opérationnelle et indépendance technologique

Les entreprises considérées comme critiques – notamment le secteur bancaire dans le contexte de DORA – ont l’obligation d’intégrer la notion de risques liés aux fournisseurs, et donc à éviter de concentrer leurs actifs informatiques auprès d’un seul opérateur de cloud, afin d’éviter de subir une interruption de service sur leurs activités.

Les exigences peuvent parfois être plus fortes, notamment pour les secteurs sensibles et critiques comme la défense, où les contraintes de sécurité et de souveraineté peuvent imposer de pouvoir continuer à fonctionner en cas de coupure totale d’internet, ce qui signifie que les services habituellement fournis par un cloud hyperscaler doivent pouvoir être répliqués en interne (mode “air-gapped”).

Une exigence que l’open source permet d’appliquer, car il fonctionne indépendamment d’une connexion internet ou d’une relation contractuelle avec un fournisseur, peut être déployé sur des datacenters souverains opérés par des prestataires européens, et offre une disponibilité technologique même si le fournisseur cesse ses activités.

Transparence, traçabilité et auditabilité

Sur le plan technologique, la souveraineté repose sur trois piliers : la transparence, la traçabilité et la réversibilité. Si les solutions propriétaires ne donnent pas l’accès au code source, limitant ainsi l’audit aux seuls comportements observables, les fournisseurs tout comme les utilisateurs ont beaucoup plus de difficultés à détecter les vulnérabilités cachées ; une opacité qui n’est pas acceptable pour les entreprises considérées comme critiques.

De son côté, l’open source permet l’auditabilité : le code est consultable par des tiers indépendants, les modifications sont documentées et traçables, et les vulnérabilités découvertes peuvent être corrigées sans devoir attendre la réaction du fournisseur.

Grâce à l’open source, les entreprises dont l’activité commerciale est centrée sur le logiciel peuvent également générer de façon automatique une cartographie complète de leurs composants applicatifs, une responsabilité qui leur incombe vis à vis de leurs clients et leurs utilisateurs selon les exigences du Cyber Resiliency Act, et ainsi identifier systématiquement les vulnérabilités.

Face aux risques de sécurité, aux exigences réglementaires toujours plus précises et strictes, et à la menace d’amendes prononcées par les autorités pour sanctionner les cas de non-conformité, les entreprises ont encore trop souvent tendance à choisir des solutions propriétaires. Si l’approche open source représente un territoire inconnu, notamment pour les organisations qui ne l’ont pas encore déployée et qui manquent de maturité en la matière, elle offre une véritable flexibilité.

L’Union européenne soutient d’ailleurs activement cette voie par des initiatives (notamment l’European Open Digital Ecosystem Strategy). Dans ce contexte, investir dans le logiciel open source, en particulier pour les organisations critiques et d’importance stratégique, permet de faire face aux risques réglementaires actuels et de demain.

*David Szegedi est Chief Architect – Field CTO Organisation chez Red Hat

The post { Tribune Expert } – Souveraineté numérique : le virage open source que les entreprises ne peuvent plus ignorer appeared first on Silicon.fr.

AWS rejoint Azure et Google Cloud sur la virtualisation imbriquée

17 février 2026 à 09:30

EC2 gère désormais officiellement la virtualisation imbriquée.

L’option est activable dans toutes les régions commerciales AWS ; pour le moment sur trois familles d’instances en CPU Intel : les C8i, M8i et R8i. Elle donne le choix entre KVM et Hyper-V. Avec quelques limites, dont :

  • Pas d’hibernation des instances
  • Désactivation du mode VSM (Virtual Secure Mode) sur les instances Windows
  • Absence de gestion des instances Windows à plus de 192 CPU

La virtualisation imbriquée constitue une alternative économique au bare metal pour exécuter des micro-VM (par exemple avec la technologie Firecracker d’AWS, qui nécessite KVM). Ou des outils de développement et de test logiciel – WSL2, émulateurs, pipelines CI/CD manipulant des images de VM…

virtualisation imbriquée

La virtualisation imbriquée, apparue sur Azure et Google Cloud en 2017

Intégrée dans Windows Server 2022, la virtualisation imbriquée avait été lancée sur Azure dès 2017. Elle ne gère officiellement qu’Hyper-V, sur les processeurs Intel avec extensions VT-x ainsi que sur les EPYC et Ryzen d’AMD. Entre autres limites, elle ne gère pas la mémoire dynamique (obligation d’éteindre la VM hôte pour ajuster sa mémoire).

Google aussi avait commencé à intégrer la virtualisation imbriquée dans son cloud public en 2017, à base de KVM. Initialement, c’était pour les VM Linux reposant sur des CPU Intel de génération Haswell et ultérieures. Elle est maintenant généralisée, mais toujours pas gérée sur les processeurs AMD ou Arm – et pas utilisable avec les VM E2 et H4D, ainsi que celles à mémoire optimisée.

Google donne une estimation de la surcharge qu’implique la virtualisation imbriquée. Il annonce une baisse potentielle de performance d’au moins 10 % pour les workloads liés au CPU. Et éventuellement davantage pour ceux orientés I/O.
AWS a potentiellement attendu que le hardware permette de minimiser ces pertes… et de garantir un niveau de sécurité conforme à ses standards.

OCI gère aussi la virtualisation imbriquée, à base de KVM.

Illustration principale générée par IA

The post AWS rejoint Azure et Google Cloud sur la virtualisation imbriquée appeared first on Silicon.fr.

De la BI à la DI, un glissement surtout terminologique ?

16 février 2026 à 16:03

Le descriptif d’un côté, le presciptif de l’autre.

Dans le jargon de l’informatique décisionnelle, une opposition terminologique s’est structurée sur ce fondement, entre BI (business intelligence) et DI (decision intelligence). Le premier trouvant une continuité dans le second, avec la promesse de combler l’écart entre les insights et les actions qui en découlent.

Gartner a fini par s’emparer de ce glissement lexical, publiant son premier Magic Quadrant dédié à la DI. Le cabinet américain estime que ce segment se trouve « sur la fin de sa phase d’émergence », accompagnant un basculement du « data-driven » au « decision-centric ». Il y inclut un bouquet de technologies – moteurs de règles, machine learning, préparation de données, graphes, agents, optimisation, simulation… – susceptibles d’accompagner la modélisation, l’orchestration, la gouvernance et l’amélioration des décisions.

17 fournisseurs, 6 « leaders »

L’axe « exécution » du Magic Quadrant de la DI reflète la capacité à répondre à la demande (qualité des produits/services, tarification, expérience client…). La situation est la suivante :

Rang Fournisseur
1 FICO
2 SAS
3 Aera Technology
4 IBM
5 Decisions
6 ACTICO
7 Quantexa
8 Pegasystems
9 o9 Solutions
10 Oracle
11 Sapiens
12 InRule Technology
13 Faculty
14 FlexRule
15 Rulex
16 RelationalAI
17 CRIF

Sur l’axe « vision », qui reflète les stratégies (sectorielle, géographique, R&D, commerciale, marketing…) :

Rang Fournisseur
1 Quantexa
2 IBM
3 FICO
4 Aera Technology
5 ACTICO
6 SAS
7 Sapiens
8 Faculty
9 Pegasystems
10 o9 Solutions
11 FlexRule
12 Decisions
13 InRule Technology
14 Rulex
15 RelationalAI
16 Oracle
17 CRIF

Six fournisseurs se trouvent dans le carré des « leaders ». Quatre sont américains (Aera Technologies, FICO, IBM, SAS) ; un, allemand (ACTICO) ; un, anglais (Quantexa).

Ils sont trois à être également classés dans le dernier Magic Quadrant de la BI : Oracle (« leader »), IBM et SAS (tous deux « visionnaires »).

FICO et IBM ne se distinguent pas sur l’approche sectorielle…

Quantexa et SAS ont droit à des remarques positives concernant leur stratégie sectorielle. Chacun pour sa feuille de route claire et ses partenariats.

On ne peut pas en dire autant pour FICO et IBM. Le premier, parce qu’il s’adresse essentiellement à l’industrie bancaire, touchant d’autres secteurs via des solutions sur lesquelles des partenaires ont le lead. Le second, parce que les dernières améliorations qu’il a apportées à sa plate-forme ne ciblaient pas de verticales spécifiques.

… ni sur le pricing, comme SAS

Quantexa se distingue aussi par sa tarification. Entre modèles à la consommation et axés sur la valeur, elle est flexible, comme d’ailleurs la contractualisation. Même constat chez Aera, plus globalement salué pour son exécution commerciale, marquée par une adoption croissante sur les différentes plaques géographiques. Quant à ACTICO, il sait adapter son approche aux profils d’acheteurs.

Chez FICO, le pricing à la consommation peut devenir complexe à mesure que l’usage vient couvrir des dimensions comme le stockage, les transactions et les modules complémentaires. Cette complexité peut également se retrouver chez IBM, avec qui la marge de négociation s’avère limitée. Ce dernier point vaut aussi pour SAS, qui n’a pas non plus une politique tarifaire des plus souples.

Des « anciens » à la forte assise financière

SAS, qui fête ses 50 ans en 2026, dispose d’une assise financière (croissance + profits) qui lui permet de maintenir un niveau d’investissement R&D sur le DI.
ACTICO (11 ans en 2026) aussi est profitable, avec une croissance constante de son chiffre d’affaires. Et Gartner salue également ses investissements R&D. Il n’en dit pas moins concernant FICO (70 ans en 2026), qui se distingue aussi par son taux de rétention client.

Aera (9 ans en 2026) n’a pas encore atteint la rentabilité. Et ses perspectives de croissance apparaissent plus restreintes que chez les concurrents, sa clientèle étant moins diversifiée en termes de secteurs d’activité.

ACTICO et Quantexa, pas salués pour leur marketing

Aera se distingue plus positivement sur sa stratégie marketing : les investissements sont importants, avec un message clair et cohérent et une capacité à quantifier les bénéfices métier.

ACTICO, au contraire, investit moins dans ce domaine que ses concurrents. Et son positionnement n’apparaît pas aligné sur les tendances du marché à moyen terme (2 à 5 ans).
Du côté de Quantexa, on a du mal à démontrer la valeur de manière consistante et à s’aligner sur les profils d’acheteurs. Les investissements dans le channel sont plus bas que la moyenne des fournisseurs classés dans ce Magic Quadrant.

Des roadmaps globalement robustes

Non salué sur le marketing, Quantexa l’est en revanche pour sa compréhension du marché, traduite par des éléments différenciants dans son offre.
Bon point aussi pour Aera, que sa feuille de route positionne idéalement tant pour capter de nouveaux clients que remplacer des solutions concurrentes.
Roadmap également robuste pour IBM, avec de l’expérience sur l’orchestration agentique et une distinction claire opérée entre DI et data science/analytics. Le groupe américain a aussi tendance à livrer des fonctionnalités en avant sur le marché (langage naturel, agentique, simulation).
Chez ACTICO, Gartner apprécie la cadence de livraison de fonctionnalités et le respect constant des échéances de la feuille de route.

FICO, au contraire, a tendance à comparer sa plate-forme à des technologies relevant de segments annexes. Il la positionne en tout cas sur des appels d’offres qui touchent, par exemple, au CRM. En servant ainsi ces besoins adjacents, il est mal aligné avec certains besoins DI critiques, considère Gartner.

Aera et SAS, classés peu innovants

FICO a droit à un bon point sur le volet innovation. En première ligne, ses fonctionnalités d’automatisation et de simulation portées par un modèle de fondation. Ainsi que ses technologies brevetées pour l’explicabilité et l’atténuation des biais.

L’innovation est un point noir chez Aera, en tout cas au vu du peu de fonctionnalités distinctives incluses dans ses dernières releases.
Chez SAS, des capacités-clés (modélisation par GenAI, frameworks agentiques…) restent en développement ou ne sont pas encore disponibles globalement.

IBM et SAS ont l’avantage de l’empreinte géographique…

SAS a pour lui son empreinte globale, son écosystème de partenaires, son support multilingue, ses certifications de conformité régionales et ses options de déploiement flexibles.
IBM aussi se distingue par son réseau de partenaires, ainsi que par le niveau de régionalisation de ses investissements avant-vente.

Aera n’a pas la même présence géographique, jugée même « minimale » en Amérique du Sud et en Asie-Pacifique. Ses investissements avant-vente sont sous la moyenne. Son réseau en Amérique du Nord et en EMEA comprend surtout des partenaires globaux plutôt que locaux.

… mais laissent un point d’interrogation

Les deux « anciens » que sont IBM et SAS font l’objet d’un avertissement concernant leur modèle économique. Le premier, parce qu’il ne met, dans le spectre de ses activités, que modérément l’accent sur le DI, laissant un point d’interrogation sur son investissement à long terme. Le second, parce que lui aussi ne priorise que modestement la DI, tendant parfois à la confondre avec la BI.

ACTICO et Quantexa peuvent progresser sur l’expérience client

Deux « leaders » ont droit à un mauvais point sur l’expérience client.
Chez ACTICO, les études de cas et plus globalement les preuves de ROI manquent, en plus d’une clientèle parfois moins satisfaite des fonctionnalités que chez les concurrents.

Chez Quantexa, la satisfaction est variable sur des capacités critiques (optimisation, simulation…), en plus d’un turnover plus important tant dans les fonctions techniques que dans celles qui interagissent avec le client.

Illustration © kwanchaift – Adobe Stock

The post De la BI à la DI, un glissement surtout terminologique ? appeared first on Silicon.fr.

{ Tribune Expert } – L’IA au travail : détecter les menaces, sécuriser les usages

16 février 2026 à 15:15

L’IA générative est désormais présente dans notre quotidien professionnel et personnel. Ces assistants répondent instantanément à nos questions, rédigent des textes, résument des documents, et font gagner un temps considérable. Mais ils sont aussi victimes “d’hallucinations” et peuvent présenter des failles de sécurité mettant à mal des informations confidentielles.

Comment profiter de ces outils tout en sécurisant leur usage ? Voici quelques risques et solutions possibles.

Les menaces cyber liées aux LLM

Prompt injection: manipulation des instructions pour contourner les règles et accéder à des informations sensibles. Un utilisateur malveillant peut formuler une question ou une instruction de manière à contourner les garde-fous intégrés au modèle et obtenir des informations confidentielles. Par exemple, un employé ou un tiers pourrait, par un enchaînement de phrases trompeuses, inciter l’assistant à divulguer des données internes sensibles ou des secrets commerciaux. Le plus souvent, cette manipulation ne nécessite pas d’accès direct aux systèmes critiques, rendant le risque particulièrement préoccupant.

Fuite de données: divulgation involontaire d’informations confidentielles ou stratégiques. Lorsqu’un assistant génère des réponses à partir de documents internes ou de bases de connaissances, il existe un risque que des informations confidentielles soient reformulées et partagées accidentellement avec des utilisateurs non autorisés. Cette vulnérabilité devient critique dans des secteurs régulés comme la finance, la santé ou la défense, où la moindre divulgation peut avoir des conséquences financières et légales lourdes.

Abus des API et systèmes connectés: détournement des capacités d’action du LLM sur des systèmes internes. Les assistants IA ne se contentent pas de répondre à des questions : ils peuvent interagir avec des systèmes via des API ou automatiser certaines tâches. Si ces accès ne sont pas correctement sécurisés, un acteur malveillant pourrait exploiter le modèle pour exécuter des actions non autorisées, comme modifier des configurations, supprimer des données ou déclencher des processus sensibles.

Hallucinations exploitables: diffusion de fausses informations pouvant induire en erreur les utilisateurs ou servir de vecteur de phishing. Les modèles de langage peuvent « halluciner », c’est-à-dire générer des informations fausses mais plausibles. Si celles-ci ne sont pas identifiées, elles peuvent induire en erreur les employés, fausser des décisions stratégiques ou servir de base à des attaques de phishing sophistiquées. Un e-mail généré automatiquement et contenant de fausses instructions financières pourrait convaincre un employé de transférer des fonds à un tiers frauduleux.

Empoisonnement des données: altération des modèles via des données malveillantes pour biaiser leurs réponses. En alimentant le modèle avec des informations malveillantes ou biaisées, un acteur externe peut altérer ses réponses et influencer ses comportements. À terme, cela peut conduire à une dégradation de la qualité des décisions, à des recommandations erronées ou à des vulnérabilités exploitées pour nuire à l’entreprise.

Comment sécuriser l’usage de l’IA générative

Isolation et contrôle des privilèges: restreindre strictement l’accès aux systèmes et données critiques Les assistants IA doivent être isolés des systèmes sensibles et n’obtenir que les accès strictement nécessaires à leurs fonctions. Limiter leur portée réduit le risque d’abus et rend beaucoup plus difficile l’exploitation de failles pour accéder à des informations stratégiques.

Filtrage et validation des entrées et sorties: détecter et bloquer les instructions malveillantes et les réponses dangereuses Pour prévenir les injections de prompt et les fuites accidentelles, il est essentiel de filtrer les requêtes adressées à l’IA et de vérifier la pertinence des réponses avant leur diffusion. Des mécanismes automatiques de contrôle et de validation, combinés à des règles métier, permettent de réduire les risques d’exécution d’instructions malveillantes.

Supervision humaine et garde-fous métier: validation des actions critiques et règles explicites sur l’usage autorisé Une supervision humaine des actions critiques de l’IA et la définition de politiques d’usage explicites garantissent que l’IA reste un outil d’aide et non un acteur autonome pouvant générer des pertes ou des incidents. La combinaison de l’intelligence humaine et artificielle est un garde-fou essentiel.

Journalisation et monitoring: suivi des interactions pour identifier rapidement des usages anormaux ou des tentatives d’attaque La traçabilité est cruciale. En enregistrant et en surveillant toutes les interactions avec l’IA, les entreprises détectent rapidement des comportements suspects, analysent des tentatives de fraude et réagissent avant que les incidents ne deviennent critiques. Le monitoring en temps réel permet également d’identifier des tendances d’usage qui pourraient indiquer des vulnérabilités.

Tests de sécurité dédiés: audits et simulations pour détecter les vulnérabilités avant qu’elles ne soient exploitées Les simulations d’attaques et les évaluations de risques permettent d’identifier des failles avant que des acteurs malveillants ne les exploitent, garantissant que le déploiement de l’IA reste un levier de productivité plutôt qu’une source de pertes financières.

*Adrien Gendre est CPO chez Hornetsecurity

 

 

The post { Tribune Expert } – L’IA au travail : détecter les menaces, sécuriser les usages appeared first on Silicon.fr.

Pourquoi Peter Steinberger quitte OpenClaw pour OpenAI

16 février 2026 à 14:00

C’est un coup de poker gagnant pour OpenAI. Sam Altman a annoncé le 15 février sur X l’arrivée de Peter Steinberger, fondateur d’OpenClaw, pour piloter le développement des agents IA personnels au sein de l’entreprise de ChatGPT.

Peter Steinberger n’est pas un inconnu du milieu tech. Après 13 ans passés à la tête de PSPDFKit, il a lancé fin 2025 OpenClaw, un projet open-source qui a connu un succès fulgurant avec plus de 100 000 étoiles sur GitHub. Cette plateforme d’agents IA auto-hébergés permet d’exécuter des tâches réelles sur l’ordinateur de l’utilisateur via des applications de messagerie du quotidien comme WhatsApp, Telegram ou Slack.

Peter Steinberger is joining OpenAI to drive the next generation of personal agents. He is a genius with a lot of amazing ideas about the future of very smart agents interacting with each other to do very useful things for people. We expect this will quickly become core to our…

— Sam Altman (@sama) February 15, 2026

Contrairement aux chatbots classiques, OpenClaw agit comme un véritable assistant autonome. Il analyse les intentions, planifie des tâches, et mobilise plus de 100 compétences disponibles via ClawHub. De la gestion de fichiers à l’automatisation de navigateurs en passant par l’intégration de plus de 50 API, l’outil se veut polyvalent. Il tourne en arrière-plan, conserve une mémoire conversationnelle persistante et peut répondre de manière proactive.

OpenClaw reste un projet open-source

Mais le succès d’OpenClaw s’est accompagné de controverses. Plus de 400 compétences malveillantes ont été découvertes sur ClawHub, tandis que des autorités chinoises ont émis des alertes concernant des risques de cybersécurité, notamment autour des injections de prompts et de la gestion des permissions.

Pourquoi abandonner un projet viral pour rejoindre OpenAI ? Dans un billet de blog, Peter Steinberger s’explique : après 13 ans à diriger une entreprise, il préfère l’innovation à la gestion d’une grande structure. « Rejoindre OpenAI est le moyen le plus rapide de changer le monde et de démocratiser les agents IA à grande échelle », écrit-il, préférant cette voie à la construction d’une nouvelle licorne.

Sam Altman ne tarit pas d’éloges sur sa recrue, qu’il qualifie de « génie » porteur d’idées sur les systèmes multi-agents, amenés selon lui à devenir centraux dans les produits OpenAI. Peter Steinberger aurait décliné des offres de Meta – Mark Zuckerberg l’avait contacté personnellement – pour privilégier l’alignement de vision avec OpenAI.

Particularité de l’opération :  OpenClaw restera open-source et indépendant au sein d’une fondation soutenue par OpenAI, évitant ainsi une acquisition classique.


Les fonctionnalités principales d’OpenClaw

Fonctionnalité Description
Passerelle multicanal et routage Intégration simultanée à plusieurs messageries avec sessions isolées par agent ou expéditeur.
Extensible vers Mattermost et autres plateformes.
Exécution système Commandes shell, gestion de fichiers (lecture, écriture, organisation),
surveillance proactive (espace disque, prix en ligne),
automatisations planifiées (jobs).
Automatisation navigateur Contrôle via protocole CDP (Chrome DevTools), snapshots intelligents d’éléments interactifs,
remplissage automatique de formulaires, scraping web, captures d’écran,
sans sélecteurs CSS manuels, avec environnements isolés sécurisés.
Intégrations et compétences Plus de 50 API (calendriers, e-mails, domotique, finances),
génération automatique de nouvelles compétences,
MoltBook pour interactions sociales entre agents.
Mémoire et proactivité Contexte persistant entre sessions,
alertes automatiques,
décomposition intelligente des tâches complexes en étapes.

Photo : © DR – Peter Steinberger

The post Pourquoi Peter Steinberger quitte OpenClaw pour OpenAI appeared first on Silicon.fr.

Sommet de l’IA 2026 : comment l’Inde veut tracer sa voie

16 février 2026 à 12:31

L’India-AI Impact Summit 2026, qui se tient cette semaine à New Delhi (16 au 20 février), quitte, pour la première fois, les capitales occidentales pour s’installer dans le Global South.

Pour la quatrième économie mondiale, c’est l’occasion d’afficher ses ambitions dans le développement de l’IA ne plus être un simple terrain d’application des technologies venues du Nord, mais s’imposer comme un acteur incontournable de la gouvernance mondiale.

Un écosystème IA en construction accélérée

Dans la continuité du Global IndiaAI Summit 2024, ce rendez-vous s’inscrit dans la mission IndiaAI, dotée d’un budget de 1,25 milliard $ sur cinq ans, pour bâtir un écosystème complet couvrant le calcul, les données, les modèles, les compétences, le financement et la gouvernance.

L’accès aux capacités de calcul sera au cœur des débats. Face à la concentration des GPU et des centres de données entre les mains de Nvidia et de quelques autres acteurs, l’Inde défend une vision radicalement différente : celle d’infrastructures de calcul considérées comme des biens publics numériques.

Le pays a mis en place un pool national de GPU subventionnés, accessible aux startups, laboratoires et administrations. Des annonces sur l’extension de cette couche de calcul partagé, de nouveaux investissements dans les data centers et des partenariats internationaux sont attendues. L’ambition est de faire de l’Inde une « capitale de l’inférence » pour les charges IA mondiales, tout en réduisant la dépendance aux hyperscalers internationaux.

Des LLMs souverains et plurilingues

Le sommet servira de vitrine aux premiers modèles de fondation souverains financés par la mission IndiaAI. Conçus pour les langues et contextes locaux, au moins partiellement ouverts à l’écosystème, plusieurs d’entre eux devraient être lancés pendant l’événement. Le focus : le plurilinguisme et les cas d’usage pour les administrations, services publics et l’inclusion financière.

L’Inde mettra également en avant AI Kosh, sa plateforme de données qui agrège plusieurs milliers de jeux de données publics. Les discussions porteront sur la qualité, la gouvernance et la souveraineté des données, avec en filigrane la question cruciale : comment concilier ouverture, protection de la vie privée et exigences de sécurité nationale ?

Une troisième voie régulatoire

Sur le plan réglementaire, New Delhi promeut une approche « techno-légale » pragmatique. Ni le modèle très prescriptif de l’Union européenne, ni le quasi laisser-faire américain. L’Inde a publié avant le sommet des lignes directrices de gouvernance visant à aligner l’IA sur des objectifs de développement, d’inclusion, de souveraineté numérique et de durabilité.

Les discussions aborderont les garde-fous autour des systèmes à haut risque, la transparence des modèles, la responsabilité des grandes plateformes, et les limites de l’auto-régulation. L’enjeu est de formuler des standards communs sur la « Safe and Trusted AI », portables ensuite dans les forums multilatéraux.

500 millions d’Indiens à connecter via l’IA

L’ambition sociale est aussi un rendez-vous majeur du sommet, un des “Seven Chakras”, qui constitue le programme durant les quatre jours.

Loin de présenter l’IA comme une menace pour l’emploi, le premier ministre Narendra Modi la considère comme un levier pour intégrer 500 millions d’Indiens supplémentaires à l’économie numérique et aux services publics, via des services IA orientés voix en langues locales.

Au programme : montée en compétences à grande échelle, soutien financier aux startups via des fonds dédiés, accès subventionné au calcul et aux données. Les débats devraient aussi porter sur les inégalités d’accès entre grandes plateformes et petites structures, entre Nord et Sud, et sur la mesure réelle de l’impact inclusif des politiques IA.

Un pont entre Nord et Sud

La géopolitique est également un sujet central. L’Inde veut jouer les « ponts » entre pays développés et en développement, s’appuyant sur son rôle dans le Partenariat mondial sur l’IA (GPAI) et les précédents sommets internationaux.

Des annonces sont attendues sur des cadres de coopération, des projets conjoints de R&D et le partage de ressources (calcul, datasets, standards techniques) avec d’autres pays du Sud. Les discussions avec la France ou le Brésil couvriront les risques de fragmentation des régulations, les tensions entre souveraineté numérique et interopérabilité, et la responsabilité des géants américains de l’IA.

En creux, New Delhi cherche à proposer une voie « tiers » dans la gouvernance mondiale de l’IA, plus orientée vers le développement et la justice numérique que vers la seule compétition technologique.

Illustration : © DR

The post Sommet de l’IA 2026 : comment l’Inde veut tracer sa voie appeared first on Silicon.fr.

Comment ServiceNow se construit par croissance externe

16 février 2026 à 11:23

Les fonctionnalités d’Integration Hub et d’Automation Engine, la base de données maison RaptorDB, un catalogue de connecteurs enrichi grâce à l’acquisition de Raytion, une techno zero copy… Sur cette base, ServiceNow avait officiellement pris, à l’automne 2024, le virage data fabric.

Après s’être concentrée sur les aspects catalogue et gouvernance, l’entreprise américaine vise l’ajout d’une couche d’analytics. Elle recourt pour cela à de la croissance externe. Dans son viseur, l’éditeur néerlandais Pyramid Analytics, régulièrement classé ces dernières années dans le Magic Quadrant de la BI. Un accord d’acquisition a été signé.

Près de 3 Md$ pour Moveworks et 8 pour Armis

Une autre acquisition est en attente : celle d’Armis, officialisée en décembre 2025, pour un montant de 7,75 Md$ en numéraire. Il est question de la finaliser au deuxième semestre 2026.
Les capacités d’Armis en matière de gestion de la surface d’attaque IT/OT seront intégrées avec la CMDB de ServiceNow. Qui compte ainsi renforcer son segment d’activité « sécurité et risque », sur lequel la valeur moyenne des contrats a récemment passé le milliard de dollars.

Mi-décembre, ServiceNow avait bouclé une autre acquisition majeure : celle de Moveworks, annoncée 9 mois plus tôt. Montant : 2,85 Md$, en cash et en actions. Elle lui apporte une technologie de recherche d’entreprise… et un assistant IA voué à constituer un point d’entrée unique pour les utilisateurs de la plate-forme.

Cuein, Raytion et UltimateSuite, d’autres acquisitions « couleur IA »

En janvier 2025, ServiceNow avait annoncé une autre opération destinée à renforcer sa data fabric. Il a mis la main sur Cuein. Cette entreprise américaine née en 2021 s’était spécialisée dans l’analyse des données d’interactions client.

L’annonce de l’accord avec Raytion était tombée en juillet 2024. ServiceNow avait absorbé cette entreprise allemande née en 2001 pour ses technologies de recherche d’information, qu’il entendait intégrer à sa plate-forme, notamment dans le cadre de l’offre Now Assist.

En janvier 2024 était intervenue une autre manœuvre contribuant à la stratégie data/IA : l’acquisition d’UltimateSuite (République tchèque) et sa technologie de task mining.

Mission Secure et Veza, pour le volet sécurité

Plus récemment (décembre 2025), ServiceNow a mis la main sur Veza. Cette entreprise américaine née en 2020 donne dans la gouvernance des identités, à l’appui d’un graphe d’accès. ServiceNow s’en est emparé dans une perspective de gestion des agents IA, tout en promettant plus globalement d’ajouter du contexte dans ses solutions de sécurité (réponse aux incidents, gestion intégrée des risques).

Autre acquisition touchant à la sécurité : Mission Secure (novembre 2024). Cette entreprise américaine fondée en 2014 a développé une solution de cartographie des actifs OT.

La société israélienne Atrinet est quant à elle à l’origine de NetACE, solution de gestion du cycle de vie des réseaux télécoms. ServiceNow la lui a achetée en février 2024.

Quality 360, Intella, 4Industry… ServiceNow pêche dans le vivier des applications natives

Logik.ai est la dernière application métier dont ServiceNow a fait l’acquisition. C’était en avril 2025. Il s’agit d’un outil de gestion commerciale. Plus précisément un logiciel CPQ (Configure, Price, Quote ; configuration, tarification et édition de devis). On le doit à un entreprise américaine créée en 2017.

À l’occasion de cette annonce, ServiceNow avait rappelé que son activité « CRM & Industry Workflows » était la plus en croissance de son portefeuille. Il ne se présentait alors pas encore comme « la tour de contrôle IA pour réinventer l’entreprise » (c’est le cas désormais), mais comme « la plate-forme IA pour la transformation de l’entreprise ». C’était aussi le cas en février 2025, lorsqu’il avait acheté un logiciel à Advaia (ESN d’origine suédoise). En l’occurrrence, Quality 360, dédié au management de la qualité. Il a rejoint l’offre MCO (Manufacturing Commercial Operations).

Quality 360 était un logiciel bâti sur la plate-forme ServiceNow. Même chose pour Intella, solution de recrutement signée de l’ESN américaine Advance Solutions. Et pour 4Industry, solution de gestion de la production signée d’une entreprise néerlandaise. ServiceNow s’est emparé de la première en mai 2024. Il avait acquis la seconde en mars de la même année, parallèlement à Smart Daily Management, achetée à EY.

Dans cette catégorie « ServiceNow-native », on peut ajouter ToolBox OH&S. Cette solution de gestion des processus de santé et sécurité au travail émane d’Enable Professional Services, un spécialiste ServiceNow australien qui évolue dans le giron de Fujitsu.

La première acquisition annoncée sous l’ère ChatGPT avait porté sur G2K. C’était en juillet 2023. Cette entreprise allemande née en 2013 ciblait le retail avec une technologie d’activation des données en ligne et en magasin. ServiceNow comptait la décliner sur des segments comme les transports, la santé et le divertissement. Il se présentait alors non comme une « plate-forme IA », mais comme une « digital workflow company »…

Illustration © agsandrew – Shutterstock

The post Comment ServiceNow se construit par croissance externe appeared first on Silicon.fr.

Laurent Martini nommé directeur général EMEA d’Anaplan

16 février 2026 à 11:00

Laurent Martini apporte une expérience de plus de deux décennies dans le secteur du logiciel. Il aura pour mission d’accélérer la croissance du chiffre d’affaires et de renforcer la position d’Anaplan dans la région, où l’entreprise compte parmi ses clients L’Oréal, AB InBev, Bayer et JLR. Il reportera à Greg Randolph, président et Chief Revenue Officer, et rejoindra le comité exécutif d‘Anaplan.

Auparavant, Laurent Martini occupait le poste de vice-président des ventes EMEA chez Splunk, où il pilotait les équipes commerciales de la région avec une croissance annuelle de 20 %.
Avant cela, il a dirigé une phase d’hypercroissance chez Pure Storage en tant que directeur général France, faisant passer le chiffre d’affaires de 5 millions à 54 millions $ en quatre ans. Il a également occupé plusieurs postes de direction chez Symantec, dont celui de directeur général France, où il supervisait une activité de 100 millions $.

Accélérer la croissance

« Laurent est un dirigeant de premier plan, reconnu pour son expertise dans le développement d’éditeurs de logiciels à l’échelle mondiale et la construction d’équipes performantes, résolument orientées client », explique Greg Randolph. « Son parcours, marqué par une forte création de valeur et des partenariats go-to-market solides, constitue un atout majeur pour accélérer notre croissance dans la région. »

The post Laurent Martini nommé directeur général EMEA d’Anaplan appeared first on Silicon.fr.

L’omnibus numérique fait tiquer les CNIL européennes

13 février 2026 à 17:37

Au Parlement et au Conseil : prière de ne pas adopter telle quelle la proposition de règlement omnibus numérique.

Le CEPD (Comité européen de la protection des données) et l’EDPS* (Contrôleur européen de la protection des données) avertissent ainsi les colégislateurs de l’UE. Dans leur collimateur, un amendement au RGPD modifiant la définition des données personnelles.

À l’heure actuelle, est définie comme telle toute information se rapportant à une personne physique identifiée ou identifiable.

L’omnibus impose d’apprécier la notion du point de vue de chaque entité. Des informations n’auraient pas de caractère personnel pour qui ne peut pas identifier la personne concernée à l’aide de moyens raisonnables. De même, elles ne le deviendraient pas du point de vue de cette même entité simplement parce qu’un destinataire ultérieur aurait raisonnablement les moyens de réaliser cette identification.

Une modification guidée par un arrêt CJUE

D’après le CEPD et l’EDPB, cette modification vise à codifier essentiellement un arrêt CJUE de septembre 2025.

L’affaire impliquait le Conseil de résolution unique (CRU, autorité de résolution de l’Union bancaire européenne). Ce dernier avait, lors de la résolution de Banco Popular Español, collecté des données d’actionnaires et de créanciers. Il en avait envoyé une partie à Deloitte pour analyse, après les avoir pseudonymisées, mais sans informer de ce transfert les personnes concernées.

Saisi à ce sujet, le CEPD avait estimé que les données en question conservaient un caractère personnel. Et que Deloitte devait donc être mentionné comme destinataire.
Le Tribunal de l’UE avait jugé que non. Selon lui, la qualification devait s’apprécier du point de vue du cabinet, qui n’avait pas la possibilité de réidentifier.

Le CEPD avait formé pourvoi auprès de la CJUE… qui a en quelque sorte coupé la poire en deux. Elle a en l’occurrence considéré que les données avaient un caractère personnel pour le CRU (en tant que responsable initial), mais pas pour Deloitte (destinataire non réidentifiant).

Des lignes directrices plutôt qu’une définition ?

L’affaire a ses spécificités, et la Commission européenne semble en faire fi, clament aujourd’hui l’EDPB et le CEPD. Modifier la définition des données personnelles sur la base d’une codification de ce seul arrêt risque d’engendrer de l’incertitude juridique, poursuivent-ils. Incertitude que renforce, d’une part, la tournure « négative » selon laquelle des informations n’acquièrent pas de caractère personnel simplement par existence d’un potentiel destinataire réidentifiant. Et de l’autre, l’emploi du terme « entité », juridiquement non défini dans le contexte du RGPD.

En plus de « restreindre nettement » la notion de données personnelles, ce changement pourrait inciter les responsables de traitement à trouver des failles, ajoutent le CEPD et l’EDPB. Par exemple, externaliser « artificiellement » certaines activités pour les séparer des moyens de réidentification.

L’EDPB a mené une consultation publique en vue de mettre à jour ses lignes directrices sur la pseudonymisation. Les contributions, déclare-t-il, ont montré que l’arrêt CJUE soulève de nombreuses questions dès lors qu’on prend en considération le reste de la jurisprudence de la cour. Et d’affirmer que ces questions seront mieux traitées par ces lignes directrices que par une modification de la définition des données personnelles.

* L’EDPS veille au respect du RGPD par les institutions et organes de l’UE.

Illustration générée par IA

The post L’omnibus numérique fait tiquer les CNIL européennes appeared first on Silicon.fr.

OpenAI apprend à penser l’inférence sans NVIDIA

13 février 2026 à 14:54

Et le premier modèle propriétaire d’OpenAI à ne pas tourner sur du GPU NVIDIA est… GPT-5.3-Codex-Spark.

Cette version « allégée » de GPT-5.3-Codex fonctionne effectivement sur la dernière génération des puces accélératrices Cerebras. Ou, devrait-on dire, des « mégapuces » : 4000 milliards de transistors sur 460 cm², pour 900 000 cœurs délivrant 125 Pflops.

Cerebras WSE-3

Un complément basse latence à l’option GPU

Cerebras – qui fournit aussi Mistral et Perplexity – avait officialisé en janvier son contrat avec OpenAI. Ce dernier disait prévoir une intégration par étapes dans sa pile d’inférence, avec l’objectif de couvrir l’ensemble de ses workloads pour fin 2028. Non pas en remplacement, mais en complément des GPU, pour donner une option très basse latence (21 Po/s de bande passante mémoire, 27 Po/s de bande passante interne, 214 Po/s entre cœurs). Avec GPT-5.3-Codex-Spark, c’est censé se traduire, entre autres, par un débit de plus de 1000 tokens par seconde.

Le modèle est pour le moment en aperçu pour les abonnés ChatGPT Pro, sur l’app Codex, le CLI et l’extension VS Code. Ne gérant que la modalité texte avec une fenêtre de contexte de 128k, il a ses propres limites d’usage, non décomptées du forfait. OpenAI le teste aussi sur son API, auprès de « quelques partenaires ». Windsurf l’a par ailleurs intégré dans son leaderboard.

OpenAI va généraliser WebSocket

Les travaux menés pour réduire la latence bénéficieront aux autres modèles d’OpenAI. En particulier, l’introduction d’un chemin WebSocket, activé par défaut. Combiné à des optimisations ciblées sur l’API Responses et sur l’initialisation des sessions, il a permis, dans le cas de GPT-5.3-Codex-Spark, de réduire de 30 % la surcharge par token, pour un TTFT (time to first token) divisé par 2.

Sur cette base, OpenAI entend proposer, à terme, un Codex « hybride » qui exploitera ce type de modèle pour les interactions simples tout en sachant déléguer les plus grosses tâches à des sous-agents tournant potentiellement sur du GPU.

On se rappellera que l’entreprise de Sam Altman a aussi un accord avec AMD, annoncé en octobre dernier. Il doit se traduire par une prise de participation (10 % du capital) et le déploiement potentiel de 6 GW de puissance de calcul – dont 1 GW en GPU Instinct MI450 cette année.

À consulter en complément :

Comment OpenAI a diversifié ses fournisseurs
Microsoft veut voler de ses propres ailes dans l’IA
Pourquoi les assistants de codage n’échappent pas au paradoxe de la productivité
Claude crée son propre compilateur C : oui, mais…
Codage agentique : le retour d’expérience de Spotify

Illustration principale générée par IA

The post OpenAI apprend à penser l’inférence sans NVIDIA appeared first on Silicon.fr.

Chez Cisco, un mouvement « AgenticOps » à diffusion lente

13 février 2026 à 12:16

Mélangez ITOps et agentique : cela donne l’AgenticOps.

Cisco avait dévoilé cette marque ombrelle en juin 2025. Il y avait associé une vitrine nommée AI Canvas. La promesse : un espace de travail collaboratif orchestrant les différentes instances de Cisco AI Assistant, et dont l’interface serait générée de façon dynamique à partir des données de télémétrie. Il aurait plusieurs points d’entrée, à commencer par Meraki et Splunk… jusqu’au futur Cisco Cloud Control (moteur unifié de politiques réseau, sécurité et observabilité)*.

La disponibilité générale d’AI Canvas se fait encore attendre. Si bien que pour le moment, la principale traduction de la promesse AgenticOps est Cisco AI Assistant. Sa diffusion dans l’écosystème Cisco se poursuit, avec désormais Catalyst Center en ligne de mire (il y est disponible en bêta, sur demande).

OT, succursales, datacenter… L’AgenticOps gagne (doucement) l’écosystème Cisco

Dans le même temps, les capacités de dépannage et d’optimisation agentique arrivent sur les réseaux OT. Sur la partie campus/succursales, ce sont les recommandations de configurations qui font leur entrée, en complément à des améliorations pour le module AI Packet Analyzer.

Toujours sur le volet AgenticOps, côté datacenter, la corrélation d’événements sur Nexus One doit arriver en juin. Auparavant (en mai), des fonctionnalités devraient commencer à apparaître dans Security Cloud Control, pour le firewall.

Autre nouveauté : une composante Experience Metrics (en alpha) censée faire le pont avec les données d’UX pour consolider le dépannage. Elle s’appuie sur des intégrations avec Apple, Intel, Samsung et Zebra.

Des SLM maison et des outils associés

Pour porter sa démarche AgenticOps, Cisco a développé un modèle spécialisé (Deep Network Model). Mi-2025, il était dit formé sur 40 millions de tokens. Au dernier pointage, on a atteint les 100 millions.

À ce modèle en sont associés d’autres. Cisco a renforcé ses capacités en la matière en s’offrant – en novembre 2025 – une entreprise à l’origine d’une plate-forme LLMOps. Le groupe américain a aussi conçu des briques destinées à favoriser le traitement des données machine : LAPSE et ACE.

LAPSE (Lightweight Autonomous Program Synthesis and Execution) structure la télémétrie : il la convertit à la volée vers un schéma optimisé pour la tâche.

ACE (Analytics Context Engineering) favorise l’ingénierie de contexte. Il embarque l’analytics dans la boucle de raisonnement des LLM en utilisant un sous-ensemble de SQL et des outils Bash ancrés sur un système de fichiers virtuel mappé aux API d’observabilité.

Ce système doit permettre de communiquer à tout modèle des « vues hybrides » optimisées pour ses compétences, tout en l’autorisant à fouiller les données brutes. D’abord conçu pour améliorer le Deep Network Model, il est aujourd’hui un service autonome.

Orientées lignes ou colonnes (un algorithme le détermine), les vues sont par défaut en JSON. Cisco propose un format custom inspiré par le projet TOON.

* Meraki et ThousandEyes furent les premières sources de données d’AI Canvas. Le service gère la télémétrie d’équipements tiers si injectée à la main ou via Splunk. Cisco envisage de permettre à des partenaires d’y intégrer des capacités par API.

Illustration générée par IA

The post Chez Cisco, un mouvement « AgenticOps » à diffusion lente appeared first on Silicon.fr.

OpenAI accuse DeepSeek de copier ses LLM

13 février 2026 à 12:16

OpenAI tire la sonnette d’alarme auprès du Congrès américain. Dans un mémorandum adressé ce jeudi à la Commission spéciale de la Chambre des représentants sur la Chine, elle accuse son rival chinois DeepSeek d’exploiter de manière déloyale les modèles d’IA américains pour entraîner sa propre technologie.

Selon le document consulté par Bloomberg et Reuters, DeepSeek aurait recours à la « distillation », une technique qui consiste à utiliser les résultats d’un modèle d’IA établi pour former un nouveau modèle concurrent. OpenAI affirme avoir détecté « de nouvelles méthodes masquées » conçues pour contourner ses défenses contre l’utilisation abusive de ses systèmes.

Ces pratiques, largement liées à la Chine et occasionnellement à la Russie selon OpenAI, persistent et se sophistiquent malgré les tentatives de répression des utilisateurs qui violent les conditions d’utilisation.

DeepSeek aurait recours à la « distillation »

L’inventeur de ChatGPT indique que des comptes associés à des employés de DeepSeek ont développé des moyens de contourner les restrictions d’accès en passant par des routeurs tiers qui dissimulent leur origine. Des lignes de code auraient également été créées pour accéder aux modèles américains et en extraire les résultats « de manière programmatique ».

Fin septembre 2025, dans un article publié sur le site de Nature, une flopée d’auteurs présentés comme l’ »Équipe DeepSeek-AI » révélaient avoir dépensé 294 000 $ pour l’entraînement de son modèle R1. Un montant bien inférieur aux chiffres rapportés pour ses concurrents américains. Et de préciser que ce modèle axé avait été entraîné pendant un total de 80 heures sur un cluster de 512 puces H800, après une phase préparatoire utilisant des puces A100 pour des expériences sur un modèle plus petit.

En comparaison, Sam Altman, PDG d’OpenAI, déclarait en 2023 que l’entraînement des modèles fondamentaux avait coûté « bien plus » que 100 millions $ – mais sans donner de chiffres détaillés pour aucune de ses sorties.

Une menace commerciale et sécuritaire

Cette situation représente une double menace. Sur le plan économique d’abord : DeepSeek et de nombreux modèles chinois étant proposés gratuitement, la distillation pose un risque commercial majeur pour des entreprises comme OpenAI et Anthropic, qui ont investi des milliards de dollars dans leurs infrastructures et facturent leurs services premium.

Sur le plan sécuritaire ensuite : OpenAI souligne que le chatbot de DeepSeek censure les résultats sur des sujets sensibles pour Pékin, comme Taïwan ou la place Tiananmen. Lorsque des capacités sont copiées par distillation, les garde-fous disparaissent souvent, permettant une utilisation potentiellement dangereuse de l’IA dans des domaines à haut risque comme la biologie ou la chimie.

David Sacks, conseiller de la Maison Blanche pour l’IA, avait déjà alerté sur ces tactiques l’an dernier, affirmant que DeepSeek « extrayait davantage de jus » des puces anciennes tout en distillant les connaissances des modèles d’OpenAI.

La question des semi-conducteurs

Les préoccupations de Washington portent également sur l’accès aux puces d’IA avancées. Fin 2024, le président Trump a assoupli les restrictions, autorisant Nvidia à vendre ses processeurs H200 à la Chine – des puces moins performantes d’environ 18 mois par rapport aux versions Blackwell les plus récentes.

Des documents obtenus par la commission sur la Chine révèlent que Nvidia a fourni un soutien technique pour aider DeepSeek à améliorer et co-concevoir son modèle R1. Le modèle de base DeepSeek-V3 n’aurait nécessité que 2,8 millions d’heures de GPU H800 pour son entraînement complet – des processeurs qui ont pu être vendus à la Chine pendant quelques mois en 2023.

Illustration : image générée par l’IA

The post OpenAI accuse DeepSeek de copier ses LLM appeared first on Silicon.fr.

Proofpoint met la main sur Acuvity pour renforcer la sécurité et la gouvernance de l’IA

13 février 2026 à 11:06

Proofpoint annonce l’acquisition d’Acuvity, une société spécialisée dans la sécurité et la gouvernance de l’intelligence artificielle. L’opération vise à intégrer à sa plateforme de des capacités de visibilité et de contrôle sur les usages de l’IA au sein des environnements de travail.

L’essor rapide de l’IA générative dans les entreprises crée de nouveaux défis en matière de sécurité et de conformité. Les déploiements d’agents autonomes, d’assistants conversationnels ou d’applications connectées aux grands modèles de langage exposent les organisations à des risques émergents : perte de données sensibles, fuites de propriété intellectuelle, non-conformité réglementaire ou encore attaques de type prompt injection.

L’intégration d’Acuvity devrait permettre à Proofpoint d’apporter une surveillance en temps réel des interactions entre utilisateurs, données et agents d’IA. La technologie d’Acuvity, conçue pour détecter et encadrer les usages internes comme externes de l’IA, offre une cartographie complète des points d’accès utilisés (endpoints, navigateurs, outils locaux ou infrastructures d’IA). Elle aide également à contrôler les données échangées avec les services d’IA tiers.

Selon Proofpoint, cette acquisition complète ses offres existantes en sécurité des collaborateurs et en protection de l’information, afin d’y ajouter une couche de gouvernance des usages d’IA dans les flux de travail critiques.

Ni le montant de la transaction ni les termes précis de l’intégration n’ont été dévoilés.

Image : © DR

The post Proofpoint met la main sur Acuvity pour renforcer la sécurité et la gouvernance de l’IA appeared first on Silicon.fr.

{ Tribune Expert } – Le vrai prix de l’ingestion de données

13 février 2026 à 10:42

Les plateformes d’ingestion de données sont souvent perçues comme un investissement coûteux. Cette perception, centrée sur leur prix affiché, ne tient pas compte du coût réel des solutions développées en interne. Entre dette technique, instabilité opérationnelle et pression sur les équipes, le choix de l’ingestion mérite d’être réévalué à l’aune du coût total de possession.

Comparer des prix ne suffit plus

Dans un contexte d’optimisation budgétaire permanente, l’ingestion de données est encore trop souvent considérée comme un poste secondaire. Le raisonnement est connu : pourquoi payer une plateforme spécialisée quand une équipe interne peut construire des flux “maison” avec les outils disponibles ?

Ce calcul, en apparence rationnel, repose sur une illusion comptable. Il compare une dépense explicite à une dépense implicite. Il oppose une ligne budgétaire visible à une réalité économique éclatée, diffuse, sous-estimée. Et il fait perdre de vue l’essentiel ; dans un système d’information moderne, l’ingestion n’est pas un projet ponctuel, c’est une fonction continue, critique et structurante.

La fausse économie des pipelines internes

Le développement de pipelines en interne est perçu comme un levier de flexibilité. Il l’est, mais à un prix que peu d’entreprises sont capables de mesurer. Derrière chaque ingestion artisanale se cachent des heures de configuration, de patchs, de réajustements, de surveillance.

Ces tâches mobilisent des profils techniques hautement qualifiés, souvent en tension sur d’autres priorités. À mesure que les sources de données se multiplient, que les formats évoluent, que les systèmes en amont se transforment, ces pipelines deviennent fragiles, rigides, coûteux à faire évoluer.

Il ne s’agit plus d’outillage, mais de dette technique. Cette dette ne se voit pas sur une facture, mais pèse dans les délais, dans la qualité des données, dans la frustration des équipes. Elle enferme les entreprises dans une logique de réparation continue.

Chaque incident absorbe des journées entières, retarde des projets, impose des arbitrages entre maintien en conditions opérationnelles et développement de nouvelles capacités. Et surtout, elle crée une dépendance à des individus. Ce n’est pas le système qui garantit la fiabilité, ce sont des personnes-clés, difficilement remplaçables, dont l’indisponibilité ou le départ devient un risque opérationnel majeur.

L’ingestion instable contamine toute la chaîne de valeur

Ce qui dysfonctionne dans l’ingestion ne reste jamais confiné à l’IT. Lorsque les données n’arrivent pas à temps, ou arrivent incomplètes, ou dans un format inutilisable, c’est toute la chaîne de valeur qui vacille.

Les équipes métiers prennent des décisions sur la base d’informations erronées ou obsolètes. Les outils d’analyse produisent des indicateurs incohérents. Les alertes automatiques se déclenchent trop tard ou à tort. L’ensemble du système perd en fiabilité, et avec lui, la capacité de l’entreprise à se coordonner, à anticiper, à réagir.

Ce coût opérationnel est rarement chiffré, mais ses effets sont bien réels. Il ralentit les cycles de décision. Il détériore la confiance dans les données. Il alimente un climat de suspicion entre les équipes techniques et les métiers. Et il oblige les organisations à surdimensionner leur système de contrôle pour compenser ce que l’ingestion aurait dû fiabiliser en amont.

La perspective financière : sortir de l’illusion du gratuit

Pour les directions financières, cette situation pose un vrai problème de gouvernance. Ce n’est pas la préférence d’un outil sur un autre qui est en jeu, mais la capacité à appliquer une logique d’investissement cohérente.

Comparer une plateforme au coût apparent élevé à une solution interne supposément gratuite revient à nier l’existence des coûts cachés. Or, dans un système complexe, ces coûts invisibles finissent toujours par réapparaître, sous la forme de retards, de burn-out, de turn-over, de projets gelés ou avortés.

À l’inverse, une plateforme d’ingestion expose ses coûts. Elle formalise un engagement de service. Elle mutualise des efforts de maintenance, d’évolution, de conformité. Et surtout, elle introduit de la prévisibilité. Elle permet de planifier, de budgéter, d’industrialiser. Elle transforme une dette en charge maîtrisée. La discipline financière rend visible ce qui est structurellement opaque.

La perspective technologique : l’infrastructure avant tout

Du côté des directions informatiques, le constat est encore plus limpide. L’ingestion ne fait pas partie des domaines où l’entreprise peut se différencier. Aucun client ne choisira un produit parce que ses pipelines sont faits maison. En revanche, tous les services numériques reposent sur des données fiables, disponibles, bien synchronisées. L’ingestion est donc une fonction d’infrastructure. Comme pour le réseau, la cybersécurité, ou encore le stockage, la question n’est pas d’innover, mais d’assurer. Et dans cette logique, l’externalisation à un outil robuste, éprouvé, maintenu, s’impose comme un choix de bon sens.

Confier l’ingestion à une plateforme dédiée permet aux équipes internes de se concentrer sur les vrais enjeux différenciants comme l’architecture, la gouvernance, la qualité et l’analyse. Continuer à bricoler l’ingestion en interne, c’est détourner des ressources rares de leur cœur de mission.

Ce n’est pas la plateforme qui coûte cher, c’est l’improvisation

Dire qu’une plateforme d’ingestion est trop chère, c’est se tromper d’indicateur. Ce qui pèse le plus lourd dans les bilans, ce ne sont pas les lignes de licence, ce sont les heures perdues, les erreurs accumulées, les décisions mal orientées. Ce n’est pas la dépense visible qui menace la compétitivité, c’est l’instabilité tolérée. Dans un environnement où la donnée est vitale, chaque faille d’ingestion est une brèche dans le fonctionnement global.

L’heure n’est plus à la comparaison des devis. Elle est à la mesure de la résilience. Et à ce jeu-là, la question n’est plus de savoir combien coûte une plateforme, mais l’absence de celle-ci.

*Virginie Brard est RVP France & Benelux chez Fivetran

The post { Tribune Expert } – Le vrai prix de l’ingestion de données appeared first on Silicon.fr.

Anthropic lève 30 milliards $, porté par ses outils de codage

13 février 2026 à 10:28

Anthropic vient de lever 30 milliards $, sous la forme d’une Série G, mené par le fonds souverain singapourien GIC et le fonds Coatue, pour une valorisation de 380 milliards $, soit plus du double de sa valorisation lors de la Série F de septembre 2025.

Ce tour de table, co‑mené par GIC et Coatue,  agrège un large spectre d’investisseurs de la tech et de la finance traditionnelle. Parmi eux figurent D.E. Shaw, Dragoneer, Founders Fund (Peter Thiel), ICONIQ et MGX, aux côtés de grands fonds de capital‑risque comme Sequoia Capital et Lightspeed Venture Partners. Il comprend aussi une partie des engagements déjà annoncés de Microsoft et Nvidia, qui avaient prévu d’investir respectivement jusqu’à 5 et 10 milliards $ dans Anthropic.

Il s’agit de l’une des plus grosses levées privées de l’histoire de la tech, derrière le tour d’environ 100 milliards $ actuellement visé par OpenAI.

Une levée de 30 Md$ d’ampleur historique

Anthropic revendique désormais un chiffre d’affaires “run‑rate” de 14 milliards $, ce qui signifie que, extrapolée sur douze mois, l’activité annuelle avoisine ce niveau. Cette trajectoire correspond à une croissance de plus de 10x par an sur chacune des trois dernières années.
Sa base de clients s’élargit rapidement vers les grandes entreprises. Le nombre de clients dépensant plus de 100.000 $ par an a été multiplié par sept en un an. Plus impressionnant encore : alors qu’une douzaine de clients seulement dépensaient plus d’un million de dollars il y a deux ans, ils sont désormais plus de 500. Huit des dix plus grandes entreprises américaines du classement Fortune sont aujourd’hui clientes de Claude.

Cette croissance a été alimentée par le lancement de plus de trente produits et fonctionnalités en janvier, dont Cowork, qui étend les capacités de Claude Code à d’autres domaines professionnels : analyse financière, ventes, cybersécurité ou découverte scientifique. Le lancement de plugins pour Cowork a d’ailleurs provoqué une onde de choc sur les marchés, entraînant un décrochage brutal des valeurs du secteur logiciel, les investisseurs s’interrogeant sur le potentiel disruptif de ces agents IA sophistiqués.

Selon le CEO Dario Amodei, environ 80% des revenus proviennent du segment entreprise, grâce aux usages de Claude dans l’automatisation documentaire, le support client, l’analyse de données et surtout le développement logiciel via Claude Code qui dépasse à lui seul un run‑rate de 2,5 milliards $, avec un nombre d’utilisateurs hebdomadaires actifs doublé depuis le début de l’année.

Objectifs : recherche, produits et infrastructure

Anthropic indique que les nouveaux capitaux financeront trois axes majeurs : la recherche sur les modèles “frontier”, le développement produit et l’expansion de l’infrastructure à grande échelle.

Sur le plan R&D, l’entreprise entend poursuivre le développement de modèles « alignés et sûrs », un positionnement historique d’Anthropic depuis ses débuts, avec une accélération attendue sur les capacités multimodales, le raisonnement avancé et les agents autonomes pour l’entreprise.

Côté produits, Anthropic veut consolider son avance dans l’IA “enterprise‑grade”, avec une feuille de route qui renforce Claude et Claude Code comme plateformes de travail quotidiennes pour les développeurs, les knowledge workers et les métiers.

Enfin, l’expansion d’infrastructure – en partenariat étroit avec Microsoft pour le cloud et Nvidia pour les GPU – vise à sécuriser les ressources de calcul nécessaires pour entraîner de nouveaux modèles et servir la demande croissante, dans un contexte de tension mondiale sur les capacités IA.

The post Anthropic lève 30 milliards $, porté par ses outils de codage appeared first on Silicon.fr.

GitGuardian lève 50 M$ : cap sur les secrets de l’IA agentique

12 février 2026 à 16:03

Les « identités non humaines » sont désormais bien ancrées dans la communication de GitGuardian.

L’annonce d’un nouveau tour de table en témoigne. L’entreprise française a levé 50 M$* qui lui serviront notamment à « répondre à la crise des identités non humaines ». Il s’agira aussi de combler le « vide sécuritaire » (security gap) des agents IA.

Le tour de table précédent (44 M$, série B) avait été officialisé fin 2021. GitGuardian ne parlait pas encore d’identités non humaines, d’autant qu’il n’avait pas de produit dédié.
Celui-ci serait lancé au printemps 2025. Il apporterait une gestion centralisée des secrets, complétant les offres axées sur leur détection (monitoring interne + surveillance de l’activité publique sur GitHub).

Au démarrage n’était que cette partie surveillance externe. La brique de monitoring interne avait été lancée en 2020, dans la foulée du tour de table de série A (12 M$). GitGuardian promettait alors de transformer ce socle en une « plate-forme exhaustive de sécurité du code ». L’année suivante, il remporterait le grand prix de la start-up au FIC.

Découvrir les secrets de l’IA agentique

La stratégie s’oriente donc désormais sur les systèmes d’IA… et sur la gouvernance des secrets qu’ils exploitent. En parallèle, pour la première fois dans le cadre d’une annonce de levée de fonds, GitGuardian évoque une extension de ses activités au Moyen-Orient, en Asie et en Amérique du Sud. Autre évolution : il ne met plus l’accent sur son public de développeurs individuels, mais de développeurs en entreprise (« plus de 115 000 »).

Sur le volet gestion des identités machine, GitGuardian a récemment fait la jonction avec AWS IAM et Entra ID. Anthropic et OpenAI ont rejoint son catalogue de connecteurs ; comme, dernièrement, Datadog, Snowflake, Okta et Slack, entre autres.

Du machine learning est venu enrichir la description des secrets découverts, le regroupement d’incidents et le scoring des risques. GitGuardian a aussi intégré une couche de langage naturel pour parcourir les journaux d’audit. Et un serveur MCP pour lire et analyser des incidents, automatiser leur résolution et générer des pots de miel.

* Tour de table emmené par le fonds américain Insight Partners. La société de gestion française Quadrille Capital a participé, aux côtés d’investisseurs existants (Balderton Capital, Bpifrance, Sapphire Ventures et le fonds allemand Fly Ventures).

Illustration générée par IA

The post GitGuardian lève 50 M$ : cap sur les secrets de l’IA agentique appeared first on Silicon.fr.

Microsoft veut voler de ses propres ailes dans l’IA

12 février 2026 à 14:31

Microsoft prend ses distances avec OpenAI. Mustafa Suleyman, patron de l’IA à Redmond, a confirmé au Financial Times un virage stratégique majeur en misant désormais sur « l’autosuffisance totale » en matière d’intelligence artificielle.

Ce repositionnement fait suite à une restructuration des liens entre les deux partenaires en octobre dernier. Concrètement, Microsoft développe désormais ses technologies les plus avancées en interne, plutôt que de s’appuyer sur un partenaire externe.

« Nous devons développer nos propres modèles de fondation, à la pointe absolue de la technologie, avec une puissance de calcul à l’échelle du gigawatt et certaines des meilleures équipes d’entraînement d’IA au monde », explique l’ancien cofondateur de Google DeepMind, arrivé chez Microsoft en 2024.

Microsoft investit massivement dans l’assemblage et l’organisation des vastes ensembles de données nécessaires à l’entraînement de systèmes avancés. Selon Suleyman, les premiers modèles développés en interne devraient être lancés «  dans le courant de l’année ».

Un pari à 140 milliards de dollars

Jusqu’à présent, Microsoft s’appuyait sur les modèles d’OpenAI pour alimenter ses outils d’IA, notamment l’assistant logiciel Copilot. L’accord négocié l’an dernier lui garantit une participation de 135 milliards $ dans la société inventeur de ChatGPT et l’accès à ses modèles les plus avancés jusqu’en 2032.

Mais cet arrangement offre également à OpenAI davantage de liberté pour rechercher de nouveaux investisseurs et partenaires d’infrastructure, le transformant potentiellement en concurrent direct.

Pour limiter les risques, Microsoft a diversifié ses investissements dans d’autres créateurs de modèles comme Anthropic et Mistral, tout en accélérant le développement de ses propres solutions.

L’ambition affichée : conquérir le marché des entreprises avec une « AGI de niveau professionnel » – des outils d’IA suffisamment puissants pour accomplir les tâches quotidiennes des travailleurs du savoir. « La plupart des tâches des cols blancs assis devant un ordinateur – avocat, comptable, chef de projet ou marketeur – seront entièrement automatisées par une IA d’ici 12 à 18 mois », prédit Suleyman.

Microsoft prévoit 140 milliards $ de dépenses d’investissement pour son exercice fiscal se terminant en juin, principalement pour construire l’infrastructure nécessaire à l’IA.

Au-delà de l’univers des entreprises, Microsoft cible aussi la santé avec l’objectif de construire une « superintelligence médicale » capable d’aider à résoudre les crises de personnel et les temps d’attente dans les systèmes de santé surchargés. L’année dernière, l’éditeur a dévoilé un outil de diagnostic qui surpasserait les médecins sur certaines tâches.

The post Microsoft veut voler de ses propres ailes dans l’IA appeared first on Silicon.fr.

❌