Vue lecture

Face au « scandale ICE », Capgemini veut vendre sa filiale CGS

6 jours pour réagir face au « scandale ICE », c’est le temps qu’il a fallu à Capgemini. Et d’annoncer sa décision de vendre sa filiale américaine qui a signé et exécuté le contrat avec l’agence fédérale américaine. Selon le syndicat CFTC, elle a été adopté à l’issue d’un conseil d’administration exceptionnel convoqué durant le week-end.

Le 25 janvier, Aiman Ezzat, son directeur général  avait choisi son compte LinkedIn pour expliquer que le groupe qu’il dirige n’avait quasiment aucun pouvoir de contrôle sur cette filiale américaine ( ce n’est pas la seule) baptisée Capgemini Government Solutions (CGS).

Exit donc toute responsabilité sur la signature du contrat avec l’Immigration and Customs Enforcement (ICE) pour un montant de 4,8 millions $. Son objet clairement indiqué dans les documents officiels publiés par l’agence fédérale américaine des achats, consistait à fournir des « services de recherche de personnes (skip tracing) pour les opérations d’exécution et d’expulsion ».

Un contrat interdit par la Charte éthique

La révélation avait provoqué de vives critiques émanant de ministres et de responsables politiques mais aussi des syndicats maison. Le 29 janvier, la CGT a ainsi lancé une pétition  » Exigeons la fin de la collaboration entre Capgemi et l’ICE » qui a déjà reçue plus de cinq mille signatures.

Le 1er février, c’est finalement un communiqué officiel de quatre lignes, le seul depuis le début de l’affaire, qui annonce :

« Capgemini a estimé que les contraintes légales habituelles imposées aux Etats-Unis pour contracter avec des entités fédérales menant des activités classifiées ne permettaient pas au Groupe d’exercer un contrôle approprié sur certains aspects des opérations de cette filiale, afin d’assurer un alignement avec les objectifs du Groupe. Le processus de cession de cette entité, qui représente 0,4% du chiffre d’affaires estimé du Groupe en 2025 (moins de 2% de son chiffre d’affaires aux Etats-Unis), sera initié immédiatement. » Aucune date et aucune valorisation de la vente n’est évoqué.

Pas de regret exprimé non plus sur la dimension éthique de l’affaire. Pourtant, la CFTC est formelle : « La charte étique du groupe interdit ce genre de prestation attentatoire à la liberté et aux droits des personnes. Normalement, si les acteurs de cette affaire avaient respecté cette charte, ils n’auraient pas répondu à cet appel d’offre, ni signé le contrat.».

 

 

 

 

The post Face au « scandale ICE », Capgemini veut vendre sa filiale CGS appeared first on Silicon.fr.

  •  

Comment l’IA va pousser les datacenters en orbite

Et si la prochaine génération de datacenters ne se construisait pas sur Terre, mais en orbite ? L’idée peut sembler relever de la science-fiction mais elle mobilise aujourd’hui des géants de la technologie et de l’espace.

Avec l’explosion des besoins en puissance de calcul pour l’intelligence artificielle et les tensions croissantes sur les ressources énergétiques terrestres, le concept de datacenters spatiaux gagne en crédibilité.

L’annonce d’une possible fusion entre SpaceX d’Elon Musk et xAI illustre l’intérêt grandissant pour cette approche. Si les promesses sont alléchantes – énergie solaire illimitée, refroidissement naturel, réduction de l’empreinte carbone -, les défis sont tout aussi considérables : coûts de lancement, fiabilité matérielle, maintenance impossible.

De quoi parle-t-on exactement ?

Les datacenters IA spatiaux sont des infrastructures de calcul déployées en orbite basse ou plus haute, combinant serveurs, accélérateurs IA (GPU, TPU, ASIC) et vastes surfaces solaires. Ils reposeraient sur des centaines de satellites interconnectés pour répondre à ces besoins massifs de compute pour l’entraînement et l’inférence des modèles IA très gourmands en ressources.

Au-delà de l’atmosphère, les satellites bénéficieraient d’une exposition solaire ininterrompue et pourraient dissiper la chaleur directement dans le vide spatial, supprimant ainsi deux des plus grands défis des datacenters terrestres.

Plusieurs programmes structurent aujourd’hui ce concept encore émergent, témoignant d’un réel engouement industriel.

> Google et le Project Suncatcher

Google développe le Project Suncatcher, un réseau ambitieux d’environ 80 satellites solaires positionnés à 400 km d’altitude, équipés de TPU (unités de traitement tensoriel) pour exécuter des charges IA. Ces satellites seraient interconnectés par des liaisons optiques et renverraient les résultats vers la Terre via des liens laser à haut débit. Deux premiers prototypes sont attendus en 2027, en partenariat avec Planet Labs.

> L’Initiative européenne ASCEND

En Europe, le projet ASCEND (Advanced Space Cloud for European Net zero emission and Data sovereignty), piloté par Thales Alenia Space et financée par la Commission européenne, conclut à la faisabilité de datacenters en orbite pour contribuer à l’objectif de neutralité carbone et à la souveraineté numérique européenne. Elle s’appuie sur un consortium mêlant experts environnementaux (dont Carbone 4), acteurs du cloud (Orange Business, HPE, CloudFerro), lanceurs (ArianeGroup) et agences spatiales.

Thales Alenia Space expérimente également le Space Edge Computing à plus petite échelle, en déployant un calculateur durci embarquant Microsoft Azure sur l’ISS pour traiter en orbite des flux d’observation de la Terre avec des applications IA comme DeeperVision. Cette approche préfigure des architectures hybrides où une partie du traitement IA est effectuée en orbite, le reste dans les clouds terrestres.

> Starcloud et Nvidia : objectif « hypercluster »

Starcloud, soutenu par Nvidia et Google, a franchi une étape importante le mois dernier en lançant le satellite Starcloud-1 via une fusée Falcon 9.

Équipé d’une puce Nvidia H100 – la plus puissante jamais envoyée en orbite – il entraîne et exécute le modèle Gemma de Google en tant que « proof of concept ». L’entreprise promeut des datacenters orbitaux alimentés 24/7 par l’énergie solaire, avec la promesse de réduire d’un facteur 10 les émissions de CO2 par rapport à un datacenter terrestre sur l’ensemble du cycle de vie. Elle vise à terme un « hypercluster » modulaire fournissant environ cinq gigawatts de puissance de calcul.

L’Alliance nippo-américaine contre la Chine

Au Japon, Space Compass et Microsoft explorent un réseau de satellites-relais optiques intégrant des capacités de edge computing pour rapprocher encore les fonctions de calcul IA des capteurs orbitaux et du cloud Azure.

La Chine n’est pas en reste, annonçant son intention de créer un « nuage spatial » au cours des cinq prochaines années. La China Aerospace Science and Technology Corporation s’est engagée à construire une infrastructure d’intelligence numérique spatiale de classe gigawatt, conformément à un plan de développement quinquennal.

Les défis technologiques et architecturaux

La mise en orbite d’un datacenter IA pose des défis technologiques considérables que les ingénieurs doivent surmonter.

> Lancement et assemblage

Les modules doivent être conçus de manière modulaire et suffisamment robustes pour résister aux violentes vibrations du décollage, puis être assemblés en orbite. Une tâche que des programmes comme EROSS IOD (European Robotic Orbital Support Services) entendent automatiser via la robotique spatiale européenne dès 2026.

> Gestion thermique complexe

Si le vide spatial évite la convection, il complique paradoxalement l’évacuation de la chaleur. Celle-ci doit passer par des radiateurs et une ingénierie thermique fine pour gérer des charges IA très denses. Contrairement aux idées reçues, le refroidissement dans l’espace n’est pas automatique et nécessite des systèmes sophistiqués.

> Fiabilité matérielle extrême

Les serveurs et accélérateurs IA doivent être durcis contre les radiations cosmiques et les cycles thermiques extrêmes, tout en restant compétitifs en performance par rapport aux générations terrestres renouvelées tous les 3 à 5 ans. C’est un défi majeur dans un secteur où l’obsolescence est rapide.

> Connectivité Haute Performance

Les datacenters spatiaux reposent sur des liens optiques haut débit, à la fois inter-satellites et vers le sol, afin de limiter la latence et de maximiser le débit pour l’entraînement et l’inférence distribués. Les liaisons laser deviennent indispensables pour gérer les volumes de données colossaux.

Les défis économiques et temporels

Malgré l’enthousiasme, les experts du secteur spatial restent prudents. Plusieurs obstacles majeurs se dressent sur la route de cette vision futuriste :

  • Les débris spatiaux représentent une menace constante pour tout équipement orbital
  • Les coûts de lancement demeurent substantiels malgré les progrès récents
  • La maintenance est extrêmement limitée une fois les satellites en orbite
  • Le rythme de renouvellement technologique pose question dans un environnement où l’accès physique est impossible

Selon les analystes de Deutsche Bank, les premiers déploiements de petits centres de données orbitaux sont attendus entre 2027 et 2028. Ces missions pionnières serviront à valider la technologie et évaluer la rentabilité. Les constellations plus importantes, comprenant potentiellement des centaines voire des milliers d’unités, ne verraient le jour que dans les années 2030, et seulement si ces premières expériences s’avèrent concluantes.

Le modèle économique repose sur trois piliers : la baisse rapide des coûts de lancement, la maturité de la robotique orbitale et la densification des puces IA. Si ces hypothèses se vérifient, le calcul IA en orbite pourrait devenir, à moyen terme, compétitif voire plus rentable que l’extension infinie de datacenters au sol dans des zones déjà contraintes en énergie et en eau.

Enjeux énergétiques et environnementaux : un bilan contrasté

Les datacenters IA tirent aujourd’hui la consommation électrique mondiale à la hausse, au point que certaines projections redoutent une saturation des réseaux et une tension croissante sur le foncier, l’eau et les énergies renouvelables. En orbite, la combinaison d’un flux solaire permanent (hors éclipses) et de panneaux plus efficaces qu’au sol ouvre un nouveau gradient d’optimisation énergétique.

Selon les porteurs du projet ASCEND, malgré l’empreinte carbone initiale des lancements, un datacenter spatial pourrait afficher, à horizon de vie complet, un bilan carbone meilleur qu’un équivalent terrestre si certains seuils de puissance et de durée de vie sont atteints. Des acteurs comme Starcloud avancent des chiffres impressionnants : jusqu’à 90% de réduction des coûts d’électricité, et un facteur 10 sur les émissions de CO2 sur la durée de vie, en supposant des lancements optimisés et une maintenance robotisée.

Cependant, la réalité est plus nuancée. Chaque lancement de fusée injecte des centaines de tonnes de CO2 et d’autres composés dans l’atmosphère, ce qui déplace le problème vers le secteur spatial et pose la question du rythme soutenable de mise en orbite de telles infrastructures. À cela s’ajoutent des enjeux préoccupants :

  • La pollution lumineuse causée par les constellations de satellites, déjà critiquée par les astronomes
  • La congestion croissante des orbites basses, source de risques de collision
  • L’impact cumulatif de milliers de lancements sur l’atmosphère

Le débat environnemental reste donc ouvert : les bénéfices opérationnels compensent-ils vraiment l’impact des phases de lancement et de déploiement ?

L’ambition de Musk et de Bezos

Pour Elon Musk, le timing semble idéal. SpaceX est le constructeur de fusées le plus performant de l’histoire et a déjà mis en orbite avec succès des milliers de satellites dans le cadre de son service internet Starlink. Cette infrastructure existante pourrait servir de fondation pour des satellites compatibles avec l’IA ou faciliter la mise en place de capacités informatiques embarquées.

Lors du Forum économique mondial de Davos au début du mois, il n’a pas caché son optimisme : « Il est évident qu’il faut construire des centres de données à énergie solaire dans l’espace… l’endroit le moins coûteux pour déployer l’IA sera l’espace, et ce sera vrai d’ici deux ans, trois au plus tard. »

SpaceX envisage d’ailleurs une introduction en bourse cette année, qui pourrait valoriser l’entreprise de fusées et de satellites à plus de 1 000 milliards $. Une partie des fonds levés servirait à financer le développement de satellites de centres de données dédiés à l’intelligence artificielle.

De leur côté, Blue Origin et Jeff Bezos travaillent sur leur propre technologie de datacenters spatiaux, en s’appuyant sur l’expertise d’Amazon. Le fondateur prévoit que les « centres de données géants de plusieurs gigawatts » en orbite pourraient, d’ici 10 à 20 ans, être plus abordables que leurs homologues terrestres.

Illustration : image générée par l’IA

The post Comment l’IA va pousser les datacenters en orbite appeared first on Silicon.fr.

  •  

IA Générative et environnement de travail : entre promesses et paradoxes

L’année 2025 a marqué un tournant décisif dans l’adoption de l’intelligence artificielle en entreprise. Selon  » l’étude annuelle de la transformation des organisations  » du cabinet Lecko, nous assistons au passage de l’expérimentation à l’intégration structurelle de l’IA dans le flux de travail quotidien. Mais cette transformation s’accompagne de défis majeurs et de paradoxes qui obligent les organisations à repenser profondément leurs modes de fonctionnement.

De l’outil isolé à l’architecture IA cohérente

Les organisations ne peuvent plus se contenter de « choisir une IA ». Elles doivent désormais concevoir une architecture IA cohérente, capable d’articuler des modèles spécialisés comme Claude, GPT ou Mistral, des couches d’orchestration et des connecteurs de données basés sur le RAG (Retrieval Augmented Generation) pour garantir la fiabilité des réponses.

Cette évolution traduit une maturité nouvelle : l’IA ne se déploie plus au coup par coup, mais s’inscrit dans une stratégie d’ensemble.

L’avènement de l’IA agentique

Lecko e met en lumière le passage de l’IA générative simple à l’IA agentique, une évolution majeure qui transforme radicalement les processus métiers. Contrairement aux outils d’assistance classiques, un agent IA est capable d’exécuter des tâches de manière autonome, comme planifier une réunion ou traiter un processus RH, en interagissant directement avec l’environnement de travail.

Cette autonomie repose sur trois caractéristiques essentielles : la capacité d’analyse de situations complexes, l’élaboration de stratégies et l’interaction directe avec les outils existants comme les CRM, ERP ou agendas. L’IA agentique vise la substitution complète de tâches, et non plus seulement leur amélioration ou leur facilitation.

Une spécialisation par métiers

L’IA s’intègre désormais au cœur des processus spécifiques de chaque département.
Dans les ressources humaines, des solutions comme Workday Illuminate déploient des agents spécialisés pour automatiser le recrutement ou rédiger des contrats. ServiceNow Now Assist automatise le résumé d’incidents et la génération de workflows pour les équipes IT. Les équipes commerciales bénéficient d’agents capables de qualifier des leads ou de préparer des devis de manière autonome.

En 2026, la valeur se déplace vers des plateformes agentiques capables d’orchestrer plusieurs agents simultanément. Les éditeurs comme Jalios, Jamespot, LumApps ou Microsoft proposent des studios « low-code » permettant aux métiers de fabriquer leurs propres agents sur mesure. Des « méta-agents » ou concierges IA dirigent les requêtes vers l’agent le plus pertinent, interrogeant simultanément différentes bases de données.

Selon Gartner, en 2028, 15 % des décisions professionnelles quotidiennes seront prises de manière autonome par des agents IA. Cette perspective souligne l’ampleur de la transformation en cours.

Le paradoxe de la productivité

L’un des enseignements les plus importants de l’étude concerne ce que Lecko appelle le « paradoxe de la productivité ». Contrairement aux attentes, l’IA n’améliore pas automatiquement les rythmes de travail. Pour obtenir un gain réel, il faut viser les tâches de substitution, où l’IA remplace effectivement une action humaine, plutôt que les tâches de confort ou de renfort.

Si les gains de temps promis par l’IA ne sont pas utilisés pour substituer des tâches récurrentes, ils restent invisibles au niveau de l’organisation et peuvent même entretenir l’hyperconnexion. L’IA agit ainsi comme un révélateur : elle ne peut transformer les processus que si le patrimoine documentaire est sain et bien structuré. Elle devient inefficace si les règles métiers sont floues ou les données mal organisées.

Lutter contre le bruit organisationnel

Le bruit organisationnel, défini comme le surplus de sollicitations numériques non filtrées et non priorisées qui fragmentent l’attention, est l’un des fléaux de l’environnement de travail moderne. L’IA agentique offre plusieurs leviers pour le combattre.

Des systèmes comme l’Assistant Teamwork de Jamespot proposent des résumés intelligents de notifications et une priorisation des messages. Des outils comme Staffbase ou Sociabble utilisent l’IA pour segmenter les audiences et personnaliser les flux, évitant de diffuser des informations non pertinentes aux collaborateurs terrain.

L’émergence de méta-agents orchestrateurs permet de router les requêtes vers le bon agent spécialisé, évitant les allers-retours inutiles dans le système d’information. Des plateformes comme LumApps avec son Agent Hub ou Elium centralisent les connaissances pour répondre en langage naturel, réduisant le bruit lié aux recherches infructueuses.

L’écosystème agentique gagne également en attractivité en proposant des innovations comme le « zéro fichier » ou la structuration des connaissances, ce qui réduit structurellement la place centrale de l’email, premier vecteur de pollution informationnelle en entreprise.

L’optimisation des réunions : promesses et limites

L’IA peut contribuer à limiter l’inefficacité des réunions, mais avec des nuances importantes. Les outils actuels comme Copilot, Leexi ou Fireflies excellent dans la transcription, la génération de comptes-rendus et l’extraction de plans d’actions. En fournissant des synthèses préalables, l’IA permet de raccourcir les réunions et de limiter le nombre de participants nécessaires.

Cependant, l’étude souligne une limite technique majeure : la réunion hybride est particulièrement difficile à traiter pour l’IA, qui peine à identifier correctement les personnes présentes physiquement par rapport à celles en ligne.

De plus, l’IA agit comme un miroir de l’efficacité organisationnelle. Une réunion mal structurée ou sans animateur produira une synthèse médiocre. Le déploiement de l’outil seul ne suffit pas à améliorer les rythmes de travail ; il doit s’accompagner d’un questionnement sur la nécessité même de la réunion.

Les risques et limites de l’IA générative

L’étude alerte sur plusieurs risques significatifs.

Paradoxalement, l’IA peut aggraver la pollution informationnelle si elle n’est pas accompagnée d’une transformation des pratiques. La facilité de production peut saturer davantage l’environnement numérique, créant un effet « tapis roulant » où une part croissante des contenus est générée automatiquement sans forcément apporter de valeur ajoutée.

Le phénomène du « Shadow AI » est également préoccupant : environ 49 % des utilisateurs en entreprise ont recours à l’IA sans en informer leur hiérarchie, ce qui contribue à fragmenter la Digital Workplace et complique la maîtrise des flux d’informations.

Des études alertent également sur une baisse des capacités cognitives et mémorielles des utilisateurs. La présence d’une IA peut encourager les participants à être moins attentifs, comptant sur le résumé automatique pour rattraper ce qu’ils ont manqué, un effet qualifié « d’endormissement au volant ».

Enfin, l’impact environnemental est colossal : la consommation d’électricité des data centers pourrait doubler d’ici 2026, soulevant des questions urgentes sur la soutenabilité de cette révolution technologique.

The post IA Générative et environnement de travail : entre promesses et paradoxes appeared first on Silicon.fr.

  •  

Perplexity se laisse séduire par Microsoft Foundry…sans lâcher AWS

Perplexity s’offre les services du cloud Azure de Microsoft pour déployer des modèles d’IA via le service Foundry, incluant notamment ceux développés par OpenAI, Anthropic et xAI, selon des sources citées par Bloomberg.

Son montant :  750 millions $ sur trois ans.

« Nous sommes ravis de nous associer à Microsoft pour accéder aux modèles de pointe de X, OpenAI et Anthropic », a déclaré Perplexity en précisant que ce nouveau contrat ne s’accompagne d’aucun transfert de dépenses depuis Amazon Web Services, son principal fournisseur cloud historique.

« AWS reste le fournisseur d’infrastructure cloud privilégié de Perplexity, et nous sommes impatients d’annoncer des extensions de ce partenariat dans les semaines à venir », a ajouté le porte-parole.

Cette diversification illustre une tendance forte de l’approche  « multicloud » qui s’est accélérée avec l’avènement de l’IA.

Des relations complexes avec Amazon

Perplexity avait jusqu’ici construit l’essentiel de son activité sur AWS, utilisant le service Bedrock  pour accéder aux modèles Anthropic qui alimentent son moteur de recherche.

Aravind Srinivas, le directeur général de Perplexity, est un habitué des conférences AWS qui  présentait volontiers Perplexity comme l’un de ses clients IA de référence.

Les relations se sont toutefois tendues ces derniers mois. En novembre, Amazon a poursuivi Perplexity en justice pour tenter d’empêcher la start-up de permettre aux consommateurs d’utiliser ses outils d’IA pour faire leurs achats sur la marketplace du géant du commerce en ligne. Perplexity a riposté en qualifiant Amazon d’intimidateur, dénonçant des actions constituant « une menace pour le choix des utilisateurs ». Srinivas avait alors révélé avoir pris des « centaines de millions » d’engagements auprès d’AWS.

Microsoft muscle son offre IA

Pour Microsoft, cet accord renforce sa stratégie visant à positionner Azure comme la plateforme de référence pour développer des applications d’IA et déployer des modèles de multiples fournisseurs. Le groupe propose depuis longtemps les modèles de son partenaire OpenAI et a conclu un accord similaire avec Anthropic en novembre.

« Nos clients s’attendent à utiliser plusieurs modèles dans le cadre de n’importe quelle charge de travail », a déclaré le PDG Satya Nadella lors d’une conférence téléphonique sur les résultats cette semaine. « Et nous offrons la plus large sélection de modèles de tous les hyperscalers. »

Plus de 1 500 clients Microsoft Foundry ont déjà utilisé à la fois les modèles OpenAI et Anthropic, a précisé le PDG Satya Nadella lors d’une conférence téléphonique sur les résultats financcette semaine indiquant que le nombre de clients dépensant plus d’un million de dollars par trimestre sur Foundry a progressé de près de 80% au cours du trimestre clos en décembre.

Perplexity compte parmi les start-ups d’IA les mieux valorisées, mais fait face à une rude concurrence de Google et OpenAI dans son ambition de révolutionner la recherche d’informations en ligne. Contrairement à OpenAI et Anthropic, qui ont récemment multiplié les accords d’infrastructure, elle n’a pas levé autant de capitaux que ses concurrents.

« `

The post Perplexity se laisse séduire par Microsoft Foundry…sans lâcher AWS appeared first on Silicon.fr.

  •  

Souveraineté numérique : les agents publics préfèrent l’efficacité à l’indépendance

Si la souveraineté numérique mobilise les décideurs politiques, l’enjeu n’est pas aussi partagé par les agents publics.

Selon une enquête Ipsos réalisée pour le cabinet Lecko, seuls 12% des agents publics interrogés attendent explicitement que leur administration privilégie la souveraineté dans l’évolution de leurs outils numériques de travail.

Pour l’écrasante majorité d’entre eux (88%), d’autres critères priment largement sur les considérations de souveraineté. Leur priorité numéro :  l’efficacité des outils au quotidien. Qu’ils soient français, européens ou américains, les agents attendent des solutions qui fonctionnent, répondent à leurs besoins réels et leur permettent d’ accomplir leurs missions dans de bonnes conditions.

Cette position pragmatique se manifeste d’ailleurs par un phénomène révélateur : 60% des répondants reconnaissent avoir recours au « Shadow IT », c’est-à-dire à l’utilisation d’applications non validées par leur direction informatique. Une forme de vote avec les pieds qui prouve que les solutions officielles – qu’elles soient souveraines ou non – ne répondent pas toujours aux attentes du terrain.

L’efficacité avant la géopolitique

Ce faible niveau d’attente vis-à-vis de la souveraineté interroge à plusieurs niveaux. D’abord sur la maturité du sujet côté utilisateurs : le concept de souveraineté numérique, bien que globalement compris, ne résonne pas comme une urgence dans le quotidien professionnel. Les menaces juridiques liées à l’extra-territorialité des lois américaines, les risques pesant sur la confidentialité des données ou les enjeux d’indépendance technologique restent perçus comme des préoccupations lointaines, déconnectées des réalités opérationnelles.

Mais ce désintérêt questionne aussi la capacité des organisations publiques à porter une vision alternative crédible. Comment convaincre les agents d’adhérer à un projet de souveraineté si les solutions proposées n’offrent pas une expérience utilisateur équivalente ou supérieure à celle des géants américains ? Quelques pionniers dans le désert

Malgré ce contexte peu favorable, quelques collectivités tentent l’aventure. La Région Occitanie, la Ville de Marseille, Chamonix, Grenoble ou Lyon abandonnent progressivement les suites logicielles américaines au profit de solutions libres et open source. Ces initiatives restent toutefois marginales dans un paysage largement dominé par Microsoft, qui équipe 75% des organisations de plus de 250 collaborateurs.

Ces expériences pionnières, pour louables qu’elles soient, buttent sur les mêmes obstacles : la résistance au changement, les questions de compatibilité, et surtout le décalage entre l’ambition politique affichée et l’adhésion réelle des utilisateurs finaux.

Un triple défi à relever

Pour que la souveraineté numérique devienne une réalité dans les administrations françaises, trois défis majeurs doivent être relevés. D’abord, réconcilier les ambitions stratégiques des décideurs avec les attentes pragmatiques des agents. Ensuite, proposer des solutions souveraines qui ne soient pas perçues comme un sacrifice en termes d’efficacité ou d’ergonomie. Enfin, investir massivement dans la formation et l’accompagnement au changement pour faire comprendre les enjeux de long terme.

Sans adhésion du terrain, les projets de souveraineté risquent de rester au stade de l’intention politique, incapables de se traduire en transformation concrète des pratiques.

The post Souveraineté numérique : les agents publics préfèrent l’efficacité à l’indépendance appeared first on Silicon.fr.

  •  

France Travail écope de 5 millions € d’amende pour une faille cyber massive

C’est un coup dur pour France Travail. Le 22 janvier 2026, la Commission nationale de l’informatique et des libertés (CNIL) a infligé une amende de 5 millions € à l’établissement public. La sanction fait suite à une cyberattaque survenue au premier trimestre 2024, qui a compromis les données personnelles de l’ensemble des personnes inscrites sur la plateforme au cours des 20 dernières années.

Une attaque par ingénierie sociale

Les pirates ont utilisé des techniques « d’ingénierie sociale » pour usurper des comptes de conseillers de Cap Emploi, les structures dédiées à l’accompagnement des personnes en situation de handicap. Une fois infiltrés dans le système d’information, les attaquants ont pu accéder à une masse considérable de données sensibles : numéros de sécurité sociale, adresses mail et postales, numéros de téléphone de tous les inscrits et candidats sur francetravail.fr.

Si les dossiers complets des demandeurs d’emploi, incluant notamment des données de santé, n’ont pas été compromis, l’ampleur de la fuite reste considérable.

Des failles de sécurité identifiées… mais pas corrigées

Le contrôle mené par la CNIL a mis en lumière de graves insuffisances dans les mesures de sécurité. Premier point noir : les modalités d’authentification des conseillers Cap Emploi n’étaient pas suffisamment robustes. Deuxième défaillance : l’absence de dispositifs de journalisation efficaces pour détecter les comportements anormaux sur le système.

Mais le plus accablant réside ailleurs. Les habilitations d’accès des conseillers Cap Emploi avaient été définies de manière trop large, leur permettant d’accéder aux données de personnes qu’ils n’accompagnaient pas directement. Cette configuration a démultiplié le volume de données accessibles aux attaquants.

La formation restreinte de la CNIL, chargée de prononcer les sanctions, a souligné un élément aggravant : France Travail avait identifié la plupart de ces mesures de sécurité dans ses analyses d’impact, en amont du traitement des données. Elles n’avaient simplement jamais été mises en œuvre.

Une sanction assortie de mesures correctives

Outre l’amende de 5 millions €, la CNIL a enjoint France Travail de justifier des mesures correctives apportées, selon un calendrier précis. À défaut, l’organisme devra s’acquitter d’une astreinte de 5 000 € par jour de retard.

Pour un établissement public dont le budget repose essentiellement sur les cotisations sociales, la sanction n’est pas anodine. Le montant de l’amende, qui ne peut dépasser 10 millions € pour un manquement à la sécurité des données selon l’article 32 du RGPD, sera reversé au budget de l’État via le Trésor public.

France Travail regrette « la sévérité » de la sanction

Dans un communiqué, France Travail a pris acte de la décision sans la contester devant le Conseil d’État. L’établissement reconnaît « la gravité des faits survenus » et sa « responsabilité en matière de protection des données », tout en regrettant « la sévérité » de la sanction « au regard de notre très fort engagement en matière de cybersécurité ».

France Travail affirme avoir anticipé la décision du régulateur en mettant en place « d’ores et déjà les mesures correctives demandées ». L’établissement indique notamment avoir déployé la double authentification depuis près de deux ans et engagé les développements nécessaires pour répondre à l’ensemble des injonctions de la CNIL.

L’organisme met en avant ses efforts en matière de cybersécurité, affirmant déjouer « près de 10.000 actes de malveillance cyber » chaque année. Il souligne également avoir renforcé sa politique de sensibilisation : les collaborateurs et ceux des partenaires doivent désormais suivre des formations obligatoires renouvelées tous les six mois, conditionnant l’accès au système d’information.

« Dans un contexte où les menaces cyber ne cessent d’augmenter, nous restons plus que jamais mobilisés pour renforcer nos systèmes de protection », conclut France Travail, rappelant que 90 % des incidents cyber proviennent d’erreurs humaines.

Image : © Cnil 

The post France Travail écope de 5 millions € d’amende pour une faille cyber massive appeared first on Silicon.fr.

  •  

Puces DRAM : la pénurie s’aggrave, les smartphones et PC en première ligne

Le marché des semi-conducteurs traverse une nouvelle zone de turbulences. Samsung Electronics et SK Hynix, qui se partagent les deux tiers du marché mondial des puces DRAM, ont lancé un avertissement sans précédent : les fabricants d’ordinateurs et de smartphones vont manquer de composants essentiels. En cause, la priorité donnée aux puces destinées aux serveurs d’IA, bien plus rémunératrices.

« Les clients des secteurs PC et mobile rencontrent des difficultés pour s’approvisionner en mémoire », a reconnu Park Joon Deok, responsable du marketing DRAM chez SK Hynix, lors d’un échange avec un analyste.

La course effrénée à l’infrastructure d’intelligence artificielle oblige les fabricants à réorienter leurs capacités de production vers la mémoire à large bande passante (HBM), réduisant mécaniquement l’offre de puces DRAM classiques.

Cette tension s’explique également par la prudence des industriels. Échaudés par une expansion trop agressive après le supercycle de 2017, ils rechignent aujourd’hui à investir dans de nouvelles lignes de production. Samsung a d’ailleurs confirmé que cette expansion resterait limitée en 2026 et 2027.

La face cachée du boom de l’IA

Les conséquences se font déjà sentir. Face à l’envolée des prix, certains fabricants ajustent leurs volumes d’achat ou reconsidèrent les spécifications techniques de leurs produits d’entrée de gamme.

Les prévisions de marché s’assombrissent : IDC et Counterpoint anticipent désormais une contraction d’au moins 2% des ventes mondiales de smartphones en 2026, là où ils prévoyaient auparavant une croissance. Côté PC, le repli pourrait atteindre 4,9% cette année, après une progression de 8,1% en 2025.

Samsung, numéro deux mondial des smartphones, n’est pas épargné. Son bénéfice dans la division mobile a chuté de 10% au quatrième trimestre.

La bataille du HBM fait rage

En coulisse, une guerre commerciale féroce oppose les deux géants coréens sur le segment stratégique des puces HBM, essentielles à la construction des processeurs d’IA. SK Hynix, fournisseur privilégié de Nvidia, domine largement avec 61% de parts de marché, contre seulement 19% pour Samsung et 20% pour l’américain Micron.

Samsung entend bien combler son retard et promet de poursuivre la montée en puissance de sa production dédiée à l’IA. De son côté, SK Hynix s’engage à maintenir sa position « écrasante » sur les puces HBM4 de nouvelle génération. Une bataille qui risque d’aggraver encore la pénurie touchant les produits grand public.

Apple a indiqué que la hausse des prix des puces mémoire commence à peser sur sa rentabilité ce trimestre. « Nous constatons une hausse significative continue des prix de la mémoire sur le marché », a souligné Tim Cook, son PDG , ce jeudi lors d’une conférence téléphonique, interrogé sur l’impact de cette pénurie sur ses plans de production annuels.

 

The post Puces DRAM : la pénurie s’aggrave, les smartphones et PC en première ligne appeared first on Silicon.fr.

  •  

Quel est ce contrat avec l’ICE qui ébranle Capgemini ?

Capgemini est dans la tourmente après la révélation d’un contrat sensible signé par sa filiale américaine avec l’agence fédérale de l’immigration ICE.

Le 18 décembre 2025, Capgemini Government Solutions (CGS), sa filiale américaine, s’est vu attribuer par l’Immigration and Customs Enforcement (ICE) un contrat de 4,8 millions $.

L’objet du contrat, clairement indiqué dans les documents officiels publiés par l’agence fédérale américaine des achats, consiste à fournir des « services de recherche de personnes (skip tracing) pour les opérations d’exécution et d’expulsion ».

C’est le média en ligne L’Observatoire des multinationales qui a révélé cette information le 21 janvier 2026, provoquant une vague de réactions après avoir été reprise par le journal de 20h de France 2, le 26 janvier.

Selon les informations du média américain The Intercept publiées en décembre  2025 sur ce type de contrat, celui-ci prévoit des « primes financières ou des ajustements tarifaires fondés sur le taux de réussite du fournisseur dans la vérification des adresses des étrangers ».

Au total, treize entreprises ont signé ce contrat avec l’ICE mais, sur la base des contrats publiés, CGS serait l’entreprise qui pourrait tirer le plus profit du programme, avec une somme maximale évoquée de l’ordre de 365 millions $.

Une « relation étroite » avec ICE

Ce n’est pas le premier contrat que Capgemini Government Solutions remporte avec le département de la sécurité intérieure américain. Les premiers accords remontent à plus de quinze ans. L’entreprise s’occupait déjà de la « planification des détentions » et des lits des centres de rétention.

Sur son site web, CGS se vantait même dans la rubrique « histoires de clients » de « travailler étroitement pour aider [l’ICE] à minimiser le temps requis et le coût de l’expulsion de tous les étrangers illégaux expulsables hors des Etats-Unis ». Cette page a depuis été supprimée mais L’Observatoire des multinationales a conservé une capture d’écran. 

Une filiale sous statut spécial

Créée en 2002 à McLean en Virginie, CGS opère dans le cadre d’un Special Security Agreement qui lui permet de travailler sur des missions classifiées pour le gouvernement américain. Ce statut impose une séparation stricte de ses opérations par rapport au groupe Capgemini.

Face à la polémique, Aiman Ezzat, directeur général de Capgemini, a réagi le 25 janvier sur LinkedIn. Il rappelle que CGS  « est une société atténuée FOCI qui opère sous un accord de sécurité spécial », avec « un conseil d’administration contrôlé par des administrateurs indépendants américains habilités » et une prise de décision séparée. Le groupe Capgemini  « ne peut accéder à aucune information classifiée, contrat classifié ou quoi que ce soit lié aux opérations techniques de CGS, comme l’exige la réglementation américaine » précise-t-il.

Le dirigeant affirme avoir été  « récemment informé, par des sources publiques, de la nature d’un contrat attribué à CGS par l’ICE du département de la sécurité intérieure en décembre 2025». Il reconnaît que « la nature et la portée de ce travail ont soulevé des questions par rapport à ce que nous faisons habituellement en tant qu’entreprise de services et de technologie».

Aiman Ezzat indique que « dans le plein respect de la gouvernance séparée et des restrictions de CGS », il a été informé que « le conseil d’administration indépendant a déjà commencé le processus d’examen du contenu et de la portée de ce contrat et des procédures de contractualisation de CGS ».

Une levée de boucliers en interne et en externe

Ces révélations ont provoqué de vives réactions chez les représentants du personnel de Capgemini. La CFTC  « condamne fermement et demande l’arrêt immédiat du contrat signé avec l’ICE », estimant que « aucun impératif commercial ne peut justifier moralement un tel contrat ». La CGT exprime également sa condamnation et rappelle qu’elle s’inquiétait déjà depuis plusieurs mois du rapprochement entre Capgemini et Palantir, éditeur américain de logiciels d’analyse de données fondé notamment par Peter Thiel, partisan de Donald Trump.

Le contexte est particulièrement sensible : l’ICE est vivement mise en cause pour ses méthodes après la mort de deux citoyens américains lors d’opérations menées ces dernières semaines dans le Minnesota.

Côté politique français, le ministre de l’économie Roland Lescure a demandé à l’entreprise de « faire la lumière de manière extrêmement transparente » sur ses activités. La ministre des armées Catherine Vautrin a appelé à examiner précisément le contenu de ces contrats, rappelant que « le respect des droits de l’homme est un sujet ».

Cette crise survient quelques jours seulement après l’annonce par Capgemini d’un plan de réorganisation pouvant conduire à la suppression de 2.400 postes en France, ajoutant une pression supplémentaire sur le groupe français.

The post Quel est ce contrat avec l’ICE qui ébranle Capgemini ? appeared first on Silicon.fr.

  •  

DMA : Bruxelles laisse 6 mois à Google pour ouvrir Android aux concurrents

Nouveau coup de semonce pour Google. Ce mardi, la Commission européenne a ouvert deux procédures de spécification dans le cadre du Digital Markets Act (DMA). Cette législation phare de l’UE vise à réguler les géants du numérique.

L’objectif ? Contraindre Alphabet, sa maison mère, à préciser ses intentions. Google doit expliquer comment il permettra aux développeurs d’IA et aux moteurs de recherche concurrents d’accéder à ses services. Cela concerne Android et les données de Google Search. L’accès doit se faire dans des conditions équitables.

« Avec ces procédures, nous voulons aider Google », déclare Teresa Ribera, commissaire européenne à la concurrence. « Nous expliquons plus en détail comment il doit se conformer à ses obligations d’interopérabilité et de partage de données de recherche en ligne. » Une formulation diplomatique qui masque mal la pression sur le groupe californien.

Android dans le viseur

La première procédure concerne une obligation précise pour Google. Le géant doit offrir aux développeurs tiers une interopérabilité « gratuite et effective ». Cela vise les fonctionnalités matérielles et logicielles d’Android.

Bruxelles va spécifier les modalités d’accès pour les fournisseurs de services d’IA tiers. Google doit leur accorder un accès « aussi efficace » que celui de ses propres services, comme Gemini. L’objectif est clair : empêcher Google de favoriser ses propres outils d’IA. Le groupe ne doit pas privilégier ses solutions au détriment de la concurrence sur mobile.

Les données de recherche convoitées

La seconde procédure vise le partage des données de Google Search. La Commission exige un accès équitable pour les moteurs concurrents. Google doit leur fournir des données anonymisées : classement, requêtes, clics et vues. Les conditions doivent être « équitables, raisonnables et non discriminatoires ».

Les discussions porteront sur plusieurs points. Quelle sera l’étendue des données concernées ? Quelle méthode d’anonymisation Google utilisera-t-il ? Quelles seront les conditions d’accès ? Les fournisseurs de chatbots IA seront-ils éligibles ?

Un accès effectif à ces données changerait la donne. Les alternatives à Google pourraient optimiser leurs services. Les utilisateurs bénéficieraient de véritables choix.

« Nous voulons maximiser le potentiel de ce profond changement technologique », justifie Teresa Ribera. « Nous nous assurons que le terrain de jeu reste ouvert et équitable. Il ne doit pas pencher en faveur des plus grands acteurs. »

Google conteste

Sans surprise, Google exprime ses réticences. « Android est ouvert par conception », a répliqué Clare Kelly, conseillère principale à la concurrence chez Google. « Nous accordons déjà des licences sur les données de recherche à nos concurrents dans le cadre du DMA. »

Elle se dit préoccupée par les conséquences. « Des règles supplémentaires compromettront la confidentialité des utilisateurs », affirme-t-elle. Selon Google, ces règles menacent aussi la sécurité et l’innovation. Le groupe estime que les concurrents motivent ces règles par leurs griefs. L’intérêt des consommateurs ne serait pas la priorité.

Six mois pour se conformer

La Commission dispose de six mois pour conclure ces procédures. Dans les trois prochains mois, elle communiquera ses conclusions préliminaires à Google. Elle détaillera les mesures qu’elle envisage d’imposer. La Commission publiera des résumés non confidentiels. Les tiers pourront formuler des commentaires.

Ces procédures ne constituent pas encore une enquête formelle. Mais elles font clairement monter la pression. Si Google ne se conforme pas, des sanctions tomberont. Les amendes pourraient atteindre 10% du chiffre d’affaires mondial annuel du groupe. Un précédent existe : Apple a reçu des directives similaires il y a deux ans. L’objectif était d’ouvrir son écosystème fermé.

Un arsenal déjà impressionnant

Cette nouvelle offensive s’ajoute à un arsenal existant. Google fait face à des sanctions imminentes dans le cadre du DMA. Le groupe aurait favorisé ses propres services dans son empire de recherche. Il aurait également empêché les développeurs d’applications d’agir librement. Ces derniers ne pouvaient pas orienter les consommateurs vers des offres en dehors du Play Store.

Une autre enquête vise Google. Elle concerne le déclassement présumé de certains résultats d’actualités. Au total, l’UE a déjà infligé 9,5 milliards € d’amendes à Google.

The post DMA : Bruxelles laisse 6 mois à Google pour ouvrir Android aux concurrents appeared first on Silicon.fr.

  •  

Visio : la solution de l’État qui divise l’écosystème tech français

Un nouveau pari pour la Dinum. Plus d’un an après avoir été étrillé par un rapport de la Cour des comptes, le bras armé de l’Etat pour la stratégie numérique a annoncé la généralisation de
 » Visio », un outil de visioconférence développé par ses soins, à l’ensemble des services de l’État d’ici 2027.

Lancé par Le ministre délégué chargé de la Fonction publique et de la Réforme de l’État, David Amiel, l’opération  » Visio »  est présenté comme faisant partie de  » La Suite « , cet outil estampillé français et développé par les ingénieurs de la Dinum vise à remplacer la multitude de solutions actuellement adoptées par les différents appareils d’État : Teams, Zoom, GoTo Meeting ou encore Webex, dans un objectif de souveraineté numérique et de sécurité des données publiques.

Une expérimentation sur 40 000 utilisateurs

Lancé sous forme expérimentale il y a un an,  » Visio  » compterait déjà 40 000 utilisateurs réguliers parmi les agents publics. Parmi les premières administrations à expérimenter la solution figurent le CNRS, l’Assurance Maladie, la Direction Générale des Finances publiques (DGFIP) et le ministère des Armées.

Le CNRS prévoit notamment de remplacer d’ici fin mars ses licences Zoom par Visio pour ses 34 000 agents et les 120 000 chercheurs associés à ses unités de recherche.

L’arrêt des licences logicielles payantes devrait générer une économie d’1 million € par tranche de 100 000 utilisateurs supplémentaires, selon les chiffres annoncés par le gouvernement.

Sécurité et souveraineté technologique

Selon la Dinum,  » Visio  » est  déployé avec l’appui de l’Agence nationale de la sécurité des systèmes d’information (ANSSI) et offre des garanties de confidentialité adaptées aux besoins des agents publics, avec un hébergement (SecNumCloud) chez Outscale, filiale de Dassault Systèmes.. C’est la moindre des choses, serait-on tenté de dire.

Sur le plan technique, l’outil intègre des innovations françaises. La transcription des réunions par intelligence artificielle utilise les technologies de séparation des locuteurs développées par la startup française Pyannote. D’ici l’été 2026, un sous-titrage en temps réel sera proposé grâce aux technologies développées par le laboratoire de recherche en IA français Kyutai.

Les critiques de l’écosystème tech français

Cette annonce a suscité des réactions vives au sein de l’industrie française du numérique représentée au sein du Comité Stratégique de Filière Logiciels et Solutions Numériques de Confiance.

Selon les Echos, son président, Michel Paulin, a vivement réagi lors « des rencontres de la souveraineté numérique » un évènement organisé ce Lundi à Bercy. « Croire qu’une solution développée par trois développeurs en CDD dans le secteur public peut aller concurrencer Microsoft est une hérésie », a tancé Michel Paulin

Une intervention saluée par les applaudissements nourris d’un parterre de décideurs présents.

Autres réactions recueillies par le quotidien économique, celle de Renaud Ghia, président de Tixeo, éditeur français d’outils de visioconférence : « Si l’accès au secteur public est fermé par une solution développée et opérée par l’administration, les éditeurs français perdent leur premier levier de croissance. En lui refusant l’accès à son propre marché domestique, l’Etat français handicape ses champions à l’international. »

La mission et les réalisations de la Dinum sont depuis longtemps l’objet des critiques de la filière, souvent sur le ton de la concurrence déloyale…Rebondissant sur les conclusions de la Cour des comptes à propos de La Suite Numérique, le Conseil national du logiciel libre accusait l’an dernier la DINUM de concurrencer le secteur privé… dont les acteurs du logiciel libre.

Illustration: © DR

The post Visio : la solution de l’État qui divise l’écosystème tech français appeared first on Silicon.fr.

  •  

Pourquoi Nvidia multiplie ses investissements en Europe dans l’IA

L’accélération est spectaculaire. Nvidia a intensifié ses investissements dans les jeunes pousses européennes de l’IA, participant à 14 tours de financement en 2025 ( sur un total de 86), selon la plateforme Dealroom. Un doublement par rapport aux sept opérations de 2024, et une progression fulgurante quand on sait que le fabricant de puces n’avait réalisé aucun investissement sur le continent en 2020 et 2021.

Cette offensive européenne de Jensen Huang s’inscrit dans une stratégie mondiale d’envergure. pour tisser des liens étroits avec les sociétés les plus prometteuses du secteur, en leur apportant non seulement des capitaux, mais aussi une expertise technique et un accès privilégié à sa chaîne d’approvisionnement.

Des montants records déployés

Parmi les opérations les plus marquantes figure le troisième investissement de Nvidia dans le français Mistral AI, qui a levé 1,7 milliard € en septembre 2025, atteignant une valorisation de 11,7 milliards €.

Autre investissement majeur, les 500 millions de livres sterling dans Nscale, annoncé en septembre par Jensen Huang lui-même. Cette startup britannique, qui développe des centres de données et fournit des services de cloud computing pour l’IA, a rapidement bouclé deux tours de financement successifs fin septembre et début octobre, avec Nvidia à chaque fois au capital.

Le géant américain a également soutenu le laboratoire allemand Black Forest Labs en décembre, participant à une levée de 300 millions $ qui a propulsé la valorisation de cette société spécialisée dans les modèles d’IA pour le contenu visuel à 3,25 milliards $. Nvidia était aussi de la partie lors de la levée de fonds de Lovable, une startup travaillant sur le « vibe coding », valorisée à 6,6 milliards $

Autre pari relevé : celui sur Quantinuum, une entreprise d’informatique quantique qui a levé des fonds en septembre avec le soutien de Nvidia, atteignant une valorisation de 10 milliards $. Ces capitaux doivent financer le développement du système quantique de nouvelle génération Helios.

L’Europe, terre d’opportunités pour l’IA physique

Cette tendance s’est poursuivie en 2026. La startup britannique Synthesia a ainsi annoncé la participation de Nvidia à son dernier tour de table.

Pour Jensen Huang, qui s’exprimait récemment au Forum économique mondial de Davos, l’Europe dispose d’atouts considérables dans la robotique et l’intelligence artificielle physique. L’Europe possède une base industrielle et manufacturière particulièrement solide, qu’elle peut désormais fusionner avec l’IA pour se positionner sur ce marché émergent. Cette combinaison permettrait même à l’Europe de rattraper son retard dans le domaine logiciel, dominé par les États-Unis.

Reste un défi majeur : l’énergie. Jensen Huang a martelé ce point à Davos : pour que l’écosystème de l’IA puisse se développer pleinement en Europe, le continent doit résoudre la question de son approvisionnement énergétique. Avec des coûts parmi les plus élevés au monde, l’Europe peine à attirer les investissements massifs nécessaires au déploiement des infrastructures d’IA. Un constat partagé par Satya Nadella, le patron de Microsoft, qui juge que les coûts énergétiques seront déterminants dans la course mondiale à l’IA.

Un écosystème en pleine ébullition

Au-delà de l’Europe, Nvidia s’impose comme le faiseur de rois de l’IA. Les hyperscalers se précipitent pour construire leurs capacités et le groupe dispose de liquidités considérables à déployer. Jensen Huang parle du démarrage du plus grand déploiement d’infrastructures de l’histoire de l’humanité.

Les chiffres parlent d’eux-mêmes. L’année 2025 a enregistré l’un des plus hauts niveaux d’investissement en capital-risque jamais atteints, avec plus de 100 milliards $ déployés dans le monde, essentiellement vers des startups natives de l’IA. Ces entreprises opèrent dans la santé, la robotique, l’industrie manufacturière et les services financiers, des secteurs où les modèles d’IA sont désormais suffisamment matures pour permettre le développement d’applications concrètes.

——

Les principaux investissements de Nvidia en Europe en 2025

Startup Pays Secteur Montant levé Valorisation Date
Mistral AI France Modèles de langage IA open source 1,7 Md€ 11,7 Md€ Sept. 2025
Nscale Royaume-Uni Centres de données / Cloud IA 500 M£ N.C. Sept. 2025
Black Forest Labs Allemagne Modèles IA pour contenu visuel 300 M$ 3,25 Md$ Déc. 2025
Lovable N.C. « Vibe coding » N.C. 6,6 Md$ 2025
Quantinuum N.C. Informatique quantique N.C. 10 Md$ Sept. 2025
Note : Sur les 86 levées de fonds mondiales auxquelles Nvidia a participé en 2025, 14 concernaient des startups européennes, contre 7 en 2024.

 

The post Pourquoi Nvidia multiplie ses investissements en Europe dans l’IA appeared first on Silicon.fr.

  •  

Cyberattaques : les entreprises françaises mieux armées mais toujours sous pression

40% des entreprises interrogées ont subi au moins une cyberattaque significative en 2025, selon les chiffres de la 11ème édition du baromètre CESIN (Club des Experts de la Sécurité de l’Information et du Numérique) réalisé avec OpinionWay.

Un chiffre qui pourrait sembler rassurant au premier abord, puisqu’il s’inscrit dans une tendance baissière observée depuis plusieurs années. Mais les 397 directeurs cybersécurité et responsables de la sécurité des systèmes d’information (RSSI) interrogés sont formels : cette diminution ne signifie pas que la menace recule mais plutôt d’une amélioration progressive des capacités de détection et de prévention.

Car lorsqu’une attaque réussit à franchir les défenses, les dégâts sont considérables. 80% des entreprises victimes signalent un impact sur leur activité, qu’il s’agisse de perturbations de production, de pertes d’image ou de vol de données, cette dernière conséquence demeurant la plus fréquente.

La géopolitique s’invite dans les stratégies cyber

Plus d’une entreprise sur deux constate une augmentation de la menace d’origine étatique. Dans un contexte international tendu, le cyberespionnage est désormais perçu comme un risque élevé par 40% des répondants, quelle que soit leur taille.

Cette prise de conscience se traduit par un intérêt croissant pour la souveraineté numérique. Plus d’une entreprise sur deux se déclare concernée par ces questions et par le cloud de confiance, une hausse significative par rapport à l’année précédente.

Le baromètre révèle toutefois un paradoxe : pour les RSSI, la souveraineté ne se limite pas à la nationalité des outils utilisés. Elle réside avant tout dans la capacité à maîtriser les dépendances, à négocier les contrats et à auditer les fournisseurs. Les principaux risques liés au cloud sont d’ailleurs identifiés comme juridiques et contractuels, avec des clauses difficilement négociables, des lois extraterritoriales et un manque de maîtrise de la chaîne de sous-traitance.

Le maillon faible des fournisseurs

Un tiers des entreprises estime que plus de la moitié de leurs incidents de cybersécurité proviennent de tiers. Les failles chez les fournisseurs, prestataires ou partenaires deviennent un vecteur majeur de compromission. Face à ce constat, les organisations renforcent leurs dispositifs : 85% intègrent des clauses de sécurité dans leurs contrats et 74% utilisent des questionnaires de sécurité. Le cyber-rating, outil d’évaluation des tiers, progresse également et est désormais utilisé par près de la moitié des entreprises.

Des techniques d’attaque éprouvées qui évoluent

Les vecteurs d’attaque dominants restent inchangés, mais se structurent et se spécialisent. Le phishing, sous toutes ses formes, demeure le principal point d’entrée des cyberattaques significatives dans 55% des incidents.

Viennent ensuite l’exploitation de failles de sécurité (41%) et les attaques indirectes via des tiers (35%). Les attaques par déni de service distribué touchent 21% des organisations victimes et s’inscrivent de plus en plus dans des stratégies hybrides.

Parmi les vecteurs émergents, l’arnaque utilisant des technologies de deepfake reste encore minoritaire, mais illustre une évolution préoccupante des attaques d’ingénierie sociale, rendues plus crédibles par l’intelligence artificielle.

Des défenses renforcées mais des failles persistantes

Les entreprises progressent nettement dans la maîtrise de leurs actifs numériques. 81% d’entre elles estiment disposer d’une vision complète de leurs actifs, tandis que 92% ont identifié ou sont en cours d’identification de leurs actifs critiques. Dans les environnements cloud, la proportion d’organisations déclarant une mauvaise visibilité recule à 31%.

Les solutions de détection et réponse sur les terminaux (EDR) demeurent massivement déployées et bénéficient d’un très haut niveau de confiance, avec 95% d’efficacité perçue.

L’authentification multifacteurs ( MFA) s’impose comme un standard. Les approches Zero Trust progressent également, adoptées par 31% des entreprises, tandis que 26% disposent d’un centre d’opérations de gestion des vulnérabilités. Mais des fragilités persistent, notamment dans la gestion des accès à privilèges des administrateurs et des sous-traitants, ainsi que dans la sécurisation d’environnements toujours plus hybrides.

L’intelligence artificielle, nouvelle surface d’attaque

L’utilisation par les salariés de services d’IA non approuvés, le « shadow IA », est identifiée comme le comportement numérique le plus risqué. 66% des entreprises le jugent à risque élevé ou très élevé. Plus largement, 60% considèrent l’usage massif de services cloud ou de logiciels non approuvés comme un facteur de risque important.

Si l’exploitation directe de l’IA comme vecteur d’attaque reste marginale, citée par seulement 3% des entreprises victimes, elle apparaît déjà dans des incidents significatifs. Les premiers malwares capables d’adapter leur comportement en temps réel ou de réécrire partiellement leur logique pour échapper à la détection font leur apparition.

La pression réglementaire s’intensifie

85 % des entreprises déclarent être impactées par au moins une réglementation cyber. La directive européenne NIS2 s’impose comme le cadre le plus structurant, citée par 59% des organisations, devant DORA (32%) et le Cyber Resilience Act (30%).

Une maturité qui s’installe

En 2025, 92% des organisations positionnent le risque cyber dans leur top 5 des risques, et près de deux tiers le placent dans le top 3, dont 16% comme risque numéro un. La cybersécurité fait désormais l’objet d’un suivi régulier en comité de direction.

Sur le plan budgétaire, le baromètre note un léger infléchissement. La part des entreprises consacrant 5% ou plus de leur budget informatique à la cybersécurité recule à 42%, contre 48% l’an dernier. Cette baisse ne traduit pas un désengagement mais plutôt une phase de consolidation et d’optimisation après plusieurs années d’investissements soutenus.

Du côté des compétences, 85% des entreprises estiment que leurs collaborateurs sont sensibilisés aux risques cyber. Mais le baromètre souligne l’atteinte d’un plafond de verre en matière de sensibilisation, face à des usages numériques toujours plus complexes.

The post Cyberattaques : les entreprises françaises mieux armées mais toujours sous pression appeared first on Silicon.fr.

  •  

DSA : Bruxelles ouvre une enquête sur X, Grok et ses deepfakes

Après des semaines de polémique sur la capacité de Grok à générer des deepfakes sexualisés de femmes et d’enfants, la Commission européenne ouvre une procédure d’infraction au titre du Digital Services Act (DSA).Entrée en vigueur en 2023, cette loi impose aux grandes plateformes des obligations strictes en matière de lutte contre les contenus illégaux et la désinformation.

L’enquête va examiner si X a correctement évalué et atténué les risques liés au déploiement de Grok dans l’Union européenne, notamment ceux concernant la dissémination d’images sexuelles manipulées, y compris des contenus susceptibles de constituer du matériel pédopornographique, selon la Commission.

« Les deepfakes sexuels non consentis de femmes et d’enfants constituent une forme violente et inacceptable de dégradation », a déclaré la commissaire européenne chargée de la tech, Henna Virkkunen. Et d’ajouter que l’investigation déterminera si X a respecté ses obligations légales ou si la plateforme a traité les droits des citoyens européens comme des  « dommages collatéraux de son service ».

Le scandale a éclaté après que des utilisateurs de plusieurs pays ont signalé que le chatbot de xAI générait et diffusait des images sexualisées sur le réseau social X ainsi que sur l’application Grok. Face à la controverse, xAI a restreint l’usage de Grok aux abonnés payants et affirme avoir mis en place des mesures technologiques pour limiter la génération de certaines images sexualisées.

Une pression réglementaire mondiale

L’Union européenne n’est pas seule à réagir. Le régulateur britannique des médias Ofcom a ouvert sa propre enquête sur Grok au titre de l’Online Safety Act, tandis que la Malaisie et l’Indonésie ont purement et simplement banni le chatbot. La France et l’Inde ont également dénoncé la création illégale d’images sexualisées sans consentement.

Dans un communiqué du 14 janvier, X a indiqué que xAI avait restreint l’édition d’images pour les utilisateurs de Grok et bloqué, selon leur localisation, la génération d’images de personnes en tenues légères dans les juridictions où cela est illégal, sans préciser lesquelles.

Mais pour Bruxelles, ces ajustements ne suffisent pas. Un haut responsable de la Commission a expliqué aux journalistes que l’exécutif européen avait des raisons de croire que X n’avait pas procédé à une évaluation ad hoc avant de déployer les fonctionnalités de Grok en Europe.

Extension de l’enquête aux systèmes de recommandation

En parallèle, la Commission a élargi une procédure ouverte en décembre 2023 pour déterminer si X a correctement évalué et atténué tous les risques systémiques liés à ses systèmes de recommandation, notamment l’impact du passage récemment annoncé à un système basé sur Grok.

Les régulateurs ont prévenu que X pourrait faire l’objet de mesures provisoires en l’absence d’ajustements significatifs de son service. En cas de violation avérée du DSA, la plateforme s’expose à des amendes pouvant atteindre 6% de son chiffre d’affaires mondial annuel, compris entre 2 et 3 milliards $, selon les estimations.

Un nouveau clash avec Washington ?

Cette investigation intervient dans un contexte de tensions croissantes entre Bruxelles et l’administration Trump au sujet de la régulation des grandes plateformes technologiques américaines. En décembre dernier, la Commission avait infligé une amende de 120 millions € à X pour manquement à ses obligations de transparence, notamment concernant son système de certification par badge bleu, l’accès aux données pour les chercheurs et son registre publicitaire.

X n’a pas immédiatement répondu aux demandes de commentaires sur cette nouvelle enquête. La plateforme avait précédemment déclaré qu’elle retirait les contenus illégaux, y compris le matériel pédopornographique, suspendait les comptes concernés et coopérait avec les forces de l’ordre si nécessaire. « Nous restons déterminés à faire de X une plateforme sûre pour tous et continuons à avoir une tolérance zéro pour toute forme d’exploitation sexuelle d’enfants, de nudité non consentie et de contenu sexuel non désiré », avait indiqué la plateforme.

La Commission irlandaise des médias, coordinateur national des services numériques dans le pays d’établissement de X au sein de l’UE, sera associée à cette investigation conformément au DSA. L’ouverture d’une procédure formelle ne préjuge pas de son issue, mais elle confère à la Commission des pouvoirs d’enquête élargis, notamment la possibilité de mener des inspections, des auditions et d’adopter une décision de non-conformité.

The post DSA : Bruxelles ouvre une enquête sur X, Grok et ses deepfakes appeared first on Silicon.fr.

  •  

Thoma Bravo : le géant qui redessine la carte du logiciel mondial

Oubliez les levées de fonds de quelques millions dans la Silicon Valley. Chez Thoma Bravo, on joue dans la catégorie des poids lourds mondiaux. Au 1er janvier 2026, les chiffres donnent le vertige : le fonds gère 184 milliards $ d’actifs et a réalisé plus de 565 acquisitions depuis sa création (en 2003), pour une valeur transactionnelle cumulée dépassant les 285 milliards $.

Cette puissance de feu est le fruit d’une spécialisation monomaniaque : le logiciel d’entreprise. Contrairement aux fonds de Venture Capital qui diversifient leurs prises de participation, Thoma Bravo – du nom de ses deux co-fondateurs Carl Thoma et Orlando Bravo – a bâti un empire sur un constat simple : le logiciel est le business model le plus prévisible et le plus rentable de l’histoire.

La trajectoire est fulgurante : en 2016, Thoma Bravo gérait  « seulement » 9 milliards $. Moins de dix ans plus tard, il affiche une multiplication par vingt de ses actifs.

En 2025, le fonds a encore frappé un grand coup en levant 34,4 milliards $ pour ses nouveaux véhicules d’investissement : Fund XVI (24,3 milliards, le plus grand fonds tech de l’histoire), Discover Fund V (8,1 milliards) et un fonds Europe inaugural de 1,8 milliard €. Tous ont dépassé leurs objectifs initiaux, prouvant que même dans un contexte de taux élevés et de difficultés généralisées de collecte dans le private equity, l’appétit des investisseurs pour la méthode Bravo reste insatiable.

Le « buy and build » : construire des forteresses par l’acquisition

La stratégie de Thoma Bravo ne s’arrête pas au rachat d’une entreprise mais repose sur le concept de « plateforme ». Le fonds identifie un leader de secteur, le rachète pour plusieurs milliards, puis s’en sert comme d’un aimant pour absorber ses concurrents plus petits. Avec plus de 40 sociétés de logiciels en portefeuille générant 30 milliards $ de revenus annuels dont 90% récurrents via le SaaS, Thoma Bravo s’est transformé en véritable « banque centrale » du logiciel B2B.

Le rythme s’est d’ailleurs intensifié : 36 acquisitions réalisées en 2024 contre 22 en 2023, et une cadence soutenue en 2025 avec des deals majeurs comme Olo (2 milliards de dollars), Dayforce (12,3 milliards) et Verint (2 milliards). Sans oublier l’acquisition spectaculaire de l’activité Digital Aviation Solutions de Boeing pour 10,55 milliards $ démontrant que le fonds joue désormais dans la même cour que les grands groupes cotés.

La cybersécurité et le SaaS en étendard

Axe central de ses investissements : la cybersécurité. L’idée est de. créer un guichet unique de la cyber capable de verrouiller un marché mondial attendu à plusieurs milliers de milliards de dollars d’ici la fin de la décennie.

Après avoir racheté Sophos pour 3,9 milliards $ en 2019, le fonds a multiplié les « add-ons » (acquisitions complémentaires) comme Barracuda Networks, SailPoint, Darktrace ou encore Proofpoint (payé 12,3 milliards en 2021). Aujourd’hui, plus de 20 plateformes de cybersécurité représentent environ 60 milliards $ de valeur d’entreprise cumulée dans son portefeuille.

L’idée : créer un guichet unique de la sécurité informatique capable de verrouiller un marché mondial attendu à plusieurs milliers de milliards de dollars d’ici la fin de la décennie.

Thoma Bravo agit avec la même frénésie pour la conquête du SaaS d’entreprise. Dans la relation client et le go-to-market, il assemble progressivement un quasi-géant caché. L’acquisition d’Anaplan (10,7 milliards), Coupa Software (8 milliards en 2022), Conga, Hyland, et plus récemment de PROS (1,4 milliard $pour ce spécialiste de la tarification dynamique) dessine une stratégie pour contrôler toute la chaîne des « revenue operations », du CPQ à la gestion des prix en passant par le contenu et la donnée client.

La « Méthode Bravo » : l’alchimie de la rentabilité opérationnelle

Ce qui distingue Thoma Bravo, c’est ce qu’il se passe après la signature du rachat. Le fonds déploie ses Operating Partners, des anciens directeurs opérationnels qui appliquent un « playbook » (manuel de gestion) ultra-standardisé. La méthode est de maximiser la génération de cash à partir de revenus récurrents, puis le recycler dans des acquisitions ciblées. Les recettes sont rodées : rationalisation des coûts, recentrage produit, hausse des prix là où l’élasticité le permet, et intégration de briques complémentaires pour densifier la plateforme.

Ellie Mae est sans doute le coup le plus fumant de l’histoire du fonds. Thoma Bravo rachète ce spécialiste des logiciels de crédit immobilier pour 3,7 milliards $. Dix-huit mois plus tard, il le revend pour 11 milliards $ à Intercontinental Exchange. Le secret : en un an et demi, les marges d’EBITDA sont passées de 18% à 60%. Une transformation chirurgicale des coûts et du modèle de vente.

Un autre cas d’école est celui de Compuware/Dynatrace. En 2014, Thoma Bravo rachète Compuware pour 2,2 milliards $, isole Dynatrace, accélère son positionnement sur le cloud puis l’introduit en Bourse avec un multiple largement supérieur à celui payé sur l’ensemble du groupe initial. L’éditeur de solutions de monitoring applicatif (APM) est entièrement reconfiguré, passant d’un modèle de vente de licences à un modèle d’abonnement (SaaS), avant d’être réintroduit avec succès au Nasdaq avec une marge opérationnelle dépassant les 30%.

Le fonds ne se contente pas de couper dans les budgets ; il force ses entreprises à adopter la « Règle des 40 » (la somme de la croissance du chiffre d’affaires (en %) et de la marge mesurée en EBITDA (en %) doit être supérieure à 40%). Pour Thoma Bravo, une entreprise IT qui ne génère pas de cash-flow massif est une erreur de casting. Et quand la discipline opérationnelle l’exige, le fonds n’hésite pas : les coupes de 40 à 50% des effectifs annoncées début 2026 dans les actifs de Boeing Digital Aviation Solutions en témoignent.

Une machine à sorties qui défie les cycles

Même avec un marché des IPO atone, Thoma Bravo continue d’encaisser. Entre 2023 et 2025, la firme a généré entre 25 et 35 milliards $ de cessions cumulées, via des ventes secondaires, des exits industriels ( comme le rachat d’Imperva par Thales) ou des introductions en Bourse sélectives.

Son bilan historique parle de lui-même : 131 acquisitions, 82 exits réalisées, dont 4 en 2024 (Greenphire, ServiceTitan, Solifi). Cette capacité à liquider ses participations avec profit dans tous les environnements de marché fait de Thoma Bravo un cas unique dans le private equity tech.

C’est même devenu un faiseur de rois, capable d’orienter à lui seul les valorisations et les consolidations dans des pans entiers de l’IT mondiale. Chaque opération de Thoma Bravo pèse sur les multiples et les attentes de rendement : les valorisations offertes, les plans de restructuration et les arbitrages entre Bourse et marché privé.

Le « Grand Bond » européen : 1,8 milliard € pour le continent

Avec le lancement d’un fonds Europe de 1,8 milliard d’euros, l’offensive s’étend au Vieux Continent, avec en ligne de mire des éditeurs allemands et français, notamment dans la conformité et la cybersécurité. C’est ainsi que Vade, le spécialiste français de la sécurité de la messagerie, est tombé dans son escarcelle via son rachat par l’allemand Hornet Security, lui même repris par Proofpoint.

Le bureau de Londres n’est plus une simple antenne, c’est devenu le poste de commandement d’une conquête méthodique qui redessine la carte de la souveraineté numérique européenne. Orlando Bravo a identifié une faille structurelle : un continent sous-numérisé par rapport aux États-Unis, mais qui regorge d’ingénieurs de talent et d’éditeurs de niche à valorisation déprimée.

Le marché européen de l’IT croît à 8,7% par an, soit trois fois plus vite que le PIB de la zone euro, créant un terreau idéal pour sa méthode. La cible : des entreprises de logiciels valorisées entre 500 millions et 2 milliards € trop grandes pour le capital-risque classique, mais trop petites pour les géants industriels.

Le cas Darktrace illustre parfaitement cette approche. En 2024, Thoma Bravo a déboursé 5,3 milliards $ pour racheter ce fleuron britannique de la cybersécurité. Objectif : appliquer le  » playbook américain » en basculant 100% des revenus vers un modèle d’abonnement pur et forcer l’entrée sur le marché américain, là où les marges sont les plus élevées.

Autre exemple révélateur : EQS Group en Allemagne. Racheté pour environ 400 millions €, ce spécialiste de la conformité réglementaire et de l’ESG incarne la stratégie du fonds qui vise les logiciels que les régulateurs rendent obligatoires. En sortant EQS de la bourse de Francfort, le fonds peut désormais le fusionner avec d’autres acteurs de la RegTech (Regulatory Technology) pour bâtir un champion paneuropéen de la conformité, un marché promis à une croissance exponentielle avec le durcissement des normes européennes.

En France, la sonnette d’alarme du CESIN

La puissance de Thoma Bravo n’est pas passée inaperçue en Europe. En juillet 2024, le CESIN (Club des Experts de la Sécurité de l’Information et du Numérique), qui regroupe plus d’un millier de CISO français, a publiquement tiré la sonnette d’alarme.

Pour Alain Bouillé, son délégué général, outre les inquiétudes sur la méthode, l’aspect le plus sensible concerne les données. Ces solutions de cybersécurité sont par nature extrêmement intrusives : elles collectent et analysent les flux réseau, les emails, les données applicatives. Une concentration de cette ampleur entre les mains d’un fonds américain pose la question de la souveraineté numérique.

Outre-Atlantique, les critiques se multiplient également. Le Department of Justice américain a ouvert plusieurs enquêtes approfondies sur les acquisitions du fonds, notamment sur le rachat de ForgeRock en 2022. Les régulateurs antitrust craignaient qu’en combinant ForgeRock avec Ping Identity, déjà dans le portefeuille de Thoma Bravo, le fonds ne contrôle une part excessive du marché stratégique de la gestion d’identités.

L’affaire a même poussé plusieurs directeurs de Thoma Bravo à démissionner de conseils d’administration pour éviter une violation du Clayton Act, qui interdit les administrateurs communs entre entreprises concurrentes. En 2022, l’éditeur britannique Mimecast a refusé une offre de Thoma Bravo pourtant supérieure de 16% à celle d’un concurrent, estimant que la fusion avec Proofpoint créerait une position dominante de plus de 50% sur le marché de la sécurité email, avec un risque réglementaire trop élevé.

Le « Frankenstein » de la cyber

Dans l’industrie IT elle-même, les avertissements se font entendre. Nir Zuk, fondateur de Palo Alto Networks, a qualifié la stratégie de Thoma Bravo de construction d’un monstre de Frankenstein dans la cybersécurité. Avec un portefeuille représentant environ 58 milliards de dollars de valeur d’entreprise, 6,5 milliards de revenus annuels et 19 000 employés le fonds pourrait du jour au lendemain créer un géant capable de concurrencer les trois leaders historiques du marché (Cisco, Check Point et Palo Alto Networks).

Mais c’est peut-être l’affaire RealPage qui cristallise le plus les critiques. Cette entreprise de gestion locative, rachetée par Thoma Bravo en 2021, fait face à plus de 30 class actions et à des poursuites du Department of Justice et de huit États pour pratiques anticoncurrentielles. Son algorithme de tarification est accusé de permettre aux propriétaires de coordonner leurs prix et d’éviter la concurrence, contribuant à l’inflation des loyers. San Francisco, Minneapolis, San Diego et Philadelphie ont même banni l’utilisation du logiciel sur leur territoire.

Matt Stoller, auteur de « Goliath: The 100-Year War Between Monopoly Power and Democracy« , résume la critique dans une formule cinglante : Thoma Bravo augmente les prix et réduit la qualité, mais personne n’écoute les responsables IT qui lancent des alertes sur les risques et la dégradation des logiciels. Le scandale SolarWinds en 2020, où une faille de sécurité massive a permis à des hackers russes d’infiltrer des agences gouvernementales américaines, a ravivé ces inquiétudes. SolarWinds, propriété de Thoma Bravo, aurait sous-investi dans la sécurité pour maximiser ses marges.

Orlando Bravo à Davos : « L’IA est une opportunité, pas une menace »

Pas de quoi ébranler la confiance d’Orlando Bravo dans. son modèle. Lors du Forum économique mondial de Davos, il a expliqué au Financial Times que la récente correction des valorisations des éditeurs de logiciels, provoquée par les peurs autour de l’intelligence artificielle, créait une opportunité d’achat massive.

Sa thèse : les investisseurs surréagissent en imaginant que les grandes entreprises vont remplacer leurs logiciels traditionnels par des outils IA maison. Selon lui, c’est méconnaître la nature même de la valeur du logiciel. Ce qui compte, ce n’est pas le code ou la technologie, c’est la connaissance profonde des métiers. La plupart des éditeurs de logiciels maîtrisent un secteur vertical, un processus ou une fonction si spécifique qu’il n’existe que trois à cinq entreprises au monde capables de le faire, et environ vingt individus qui le comprennent vraiment. Cette expertise irremplaçable constitue la véritable franchise, la valeur réelle que l’IA ne peut pas répliquer.

Une vision qui contraste frontalement avec celle d’autres géants du private equity. Apollo Global a réduit son exposition aux éditeurs de logiciels et a même parié à la baisse sur certaines de leurs dettes par crainte de l’IA. Jonathan Gray, président de Blackstone, a fait de l’évaluation des risques liés à l’IA la priorité absolue du groupe pour les nouveaux investissements.

L’optimisme d’Orlando Bravo n’est pas nouveau. En 2021, alors que les valorisations tech atteignaient des sommets, il déclarait qu’il serait presque irresponsable de se retenir d’investir par peur des prix élevés, ironisant sur ceux qui attendent que le marché devienne bon marché. Quelques mois plus tard, la remontée brutale des taux de la Fed faisait s’effondrer les valorisations tech. Cette année-là, Thoma Bravo avait réalisé une vague de rachats à des multiples que beaucoup de financiers jugent aujourd’hui trop élevés.

L’acquisition de Medallia pour 6,4 milliards $ en est l’illustration : l’opération a depuis tourné au vinaigre, en partie à cause de problèmes liés… à l’IA. Un rappel que même la machine Thoma Bravo n’est pas infaillible.

The post Thoma Bravo : le géant qui redessine la carte du logiciel mondial appeared first on Silicon.fr.

  •  

Comment Saint-Maclou accélère sa transformation data

Avec 132 magasins en France et 1 400 collaborateurs, Saint-Maclou fait face à des enjeux data complexes. Entre la gestion des ventes, du service de pose, de la logistique et des stocks, l’enseigne basée à Lezennes devait jongler avec de multiples sources de données dispersées. Un casse-tête qui freinait considérablement ses ambitions analytiques.

Un système legacy qui bride l’innovation

Le constat de départ était sans appel : le système décisionnel historique de Saint-Maclou reposait sur des flux développés et maintenus manuellement. Chaque nouveau projet d’analyse impliquait d’identifier précisément les bases sources, tables et colonnes pertinentes, puis de développer spécifiquement les flux d’alimentation nécessaires.

Cette approche générait une charge de développement et de maintenance considérable, particulièrement lors des évolutions. Les data engineers passaient l’essentiel de leur temps sur la collecte de données, au détriment des activités à réelle valeur ajoutée comme la transformation et l’analyse. Les coûts de licences s’accumulaient, les délais de projets s’allongeaient, et l’expérimentation sur des cas d’usage avancés ou d’intelligence artificielle devenait quasiment impossible.

« Charge de développement, charge de maintenance, charge d’astreinte, coût de licence pour l’outil… Notre façon de travailler générait auparavant d’importants coûts  », explique Salmane Khamlichi, Responsable data chez Saint-Maclou.

Le virage vers le cloud et l’ELT

Pour sortir de cette impasse, Saint-Maclou a opté pour une refonte progressive de sa plateforme data, en basculant vers une architecture moderne sur le cloud. L’entreprise a d’abord déployé Snowflake comme base de données centrale, puis s’est posé la question cruciale de l’alimentation de cette nouvelle infrastructure.

Exit l’approche ETL (Extract Transform Load) classique. L’enseigne a retenu Fivetran pour sa compatibilité native avec Snowflake, sa robustesse validée lors d’un POC, et sa capacité à gérer de grandes bases SQL Server tout en connectant des sources critiques.

Aujourd’hui, Fivetran synchronise automatiquement les données d’une quinzaine de sources vers Snowflake, qu’elles soient hébergées on-premise ou dans le cloud : l’ERP Microsoft AX, les outils logistiques, les systèmes de vente et de gestion des stocks, ainsi que plusieurs sources marketing, dont le futur CRM Salesforce.

Avec cette approche ELT (Extract Load Transform), la phase de collecte ne constitue plus un goulot d’étranglement. Les données sont chargées brutes dans Snowflake, puis transformées selon les besoins métiers.

Des gains mesurables sur tous les plans

Les résultats sont spectaculaires. La collecte de nouvelles sources, qui prenait auparavant plusieurs jours voire plusieurs semaines, s’effectue désormais en quelques heures. Les projets restent dans un même sprint, évitant les allers-retours coûteux qui ralentissaient leur réalisation.

Côté ressources humaines, l’impact est tout aussi significatif. L’ingestion de données ne nécessite plus d’équivalent temps plein. Les data engineers se consacrent enfin aux opérations à forte valeur ajoutée : la transformation via DBT Core et l’exploitation intelligente des données. Les problématiques de maintenance sont devenues minimes.

La robustesse de la solution apporte également une tranquillité d’esprit appréciable. Les synchronisations sont stables et fiables, les évolutions des schémas sources n’entraînent pas d’interruption de service, et les équipes disposent de données actualisées et exploitables en toute confiance.

Autre bénéfice majeur : la centralisation. Là où les données étaient auparavant éparpillées dans de multiples applications métiers, elles sont désormais regroupées à 100% dans Snowflake. Cette vision unifiée permet d’envisager sereinement les futurs projets analytiques avancés et d’intelligence artificielle. L’équipe data travaille plus étroitement avec les équipes métiers (marketing, ventes, logistique) et gagne en réactivité.

Enfin, la plateforme Fivetran offre une maîtrise fine de la consommation et un monitoring précis des coûts liés aux projets data. « Cela nous permet notamment de travailler sur des sujets de prévision des ventes, d’intégrer rapidement de nouvelles sources pour enrichir les modèles et d’expérimenter à moindre coût de nouveaux cas d’usage data science », résume Salmane Khamlichi.

Photo : © DR

The post Comment Saint-Maclou accélère sa transformation data appeared first on Silicon.fr.

  •  

Capgemini : un plan de 2 400 suppressions de postes en France

Capgemini envisage jusqu’à 2 400 suppressions de postes, soit environ 7% de ses quelque 35 000 salariés dans l’Hexagone. Le groupe de servicesIT, qui emploie près de 355 000 personnes dans le monde, concentre donc l’effort de réduction sur la France, où l’activité souffre d’un ralentissement dans plusieurs secteurs.

Selon le communiqué transmis à l’AFP, la première ESN de France explique ce projet par un environnement économique marqué par une croissance modérée et par les difficultés de certains marchés, notamment l’automobile et d’autres industries en mutation. Capgemini insiste également sur la nécessité de se « transformer » face aux évolutions technologiques rapides, citant explicitement l’essor de l’IA, du SaaS, de l’offshore et de l’internalisation croissante de certaines compétences chez les clients.

Selon la CFDT, ​les entités du groupe concernées sont Altran, Apps, CIS, Engineering, FS, Fonctions Support, I&D et Sogeti.

Volontariat, reconversions et ruptures conventionnelles

Capgemini insiste sur le caractère volontaire du dispositif, structuré autour de deux grandes options. D’une part, une reconversion interne proposée aux salariés concernés, avec des parcours de formation et de certification vers des « métiers d’avenir », notamment dans l’IA, le cloud et la data. D’autre part, un dispositif de rupture conventionnelle collective (RCC) permettant des départs volontaires assortis de mesures d’accompagnement spécifiques.

L’ESN précise que ce plan doit encore être présenté aux instances représentatives du personnel et fera l’objet d’une négociation avec les organisations syndicales, afin de définir par accord collectif les modalités détaillées, les critères d’éligibilité et les compensations.

Les syndicats, de leur côté, dénoncent une restructuration d’ampleur dans une entreprise qui reste bénéficiaire, et s’inquiètent du risque de dégradation des conditions de travail pour les équipes restant en place.

« Nous allons aussi analyser le rapport entre mobilité interne (nombre d’ouverture de postes) et la mobilité externe (Rupture Conventionnelle Collective) dans ce projet. En clair, quelle est la réduction d’effectif visée par la Direction (ce n’est pas clairement indiqué).» indique la CFTC.
Quant à la CGT,elle dénonce notamment « une communication diffusée par voie de presse avant même l’information des CSE et du CSEC, provoquant inquiétude et stress chez les salarié·es » .

Un signal pour l’écosystème des ESN

Dans sa communication, Capgemini met en avant l’accélération des mutations technologiques, « notamment l’intelligence artificielle », comme un moteur central de cette réorganisation. Le groupe cherche à se repositionner sur des activités jugées plus porteuses à moyen terme, en s’appuyant sur les investissements réalisés ces dernières années dans l’IA générative et l’IA dite agentique, ainsi que dans les services cloud et data.

Cette dynamique s’inscrit dans un mouvement plus large qui touche l’ensemble des ESN, confrontées à la fois à la pression sur les prix, à la généralisation de l’offshore et à l’automatisation de certaines tâches traditionnellement réalisées par des consultants et développeurs.

Le plan Capgemini intervient après une année 2025 marquée, dans le secteur numérique français, par un ralentissement des recrutements et une montée du recours au nearshore et à l’offshore, passés à près de 18% des effectifs externalisés contre 15,5% un an plus tôt selon les données de Numeum. Les grandes ESN, qui avaient massivement embauché après la pandémie, réajustent désormais leurs effectifs face à une demande moins dynamique et plus volatile.

The post Capgemini : un plan de 2 400 suppressions de postes en France appeared first on Silicon.fr.

  •  

Cybersécurité : l’UE va durcir le ton face aux équipementiers chinois

La Commission européenne a dévoilé son projet de révision du Cybersecurity Act qui prévoit l’élimination progressive des équipements fournis par des entreprises jugées à haut risque dans les secteurs critiques.

Sans nommer explicitement de pays ou d’entreprises, ces mesures devraient principalement affecter les géants chinois des télécommunications Huawei et ZTE.

« Avec ce nouveau paquet cybersécurité, nous disposerons des moyens nécessaires pour mieux protéger nos chaînes d’approvisionnement critiques en technologies de l’information et de la communication, mais aussi pour combattre les cyberattaques de manière décisive », affirme Henna Virkkunen, la commissaire européenne chargée du numérique.

Le texte s’appliquera à dix-huit secteurs clés identifiés par la Commission, parmi lesquels les équipements de détection, les véhicules connectés et automatisés, les systèmes d’approvisionnement en électricité et en eau, les drones, les services de cloud computing, les dispositifs médicaux ou encore les semi-conducteurs.

Des délais de transition variables

Selon le projet, les opérateurs de téléphonie mobile disposeront de trente-six mois à compter de la publication de la liste des fournisseurs à haut risque pour retirer les composants essentiels provenant de ces entreprises. Les calendriers pour les réseaux fixes, incluant la fibre optique et les câbles sous-marins, ainsi que pour les réseaux satellitaires, seront annoncés ultérieurement.

Les restrictions ne s’appliqueront qu’après une évaluation des risques initiée soit par la Commission, soit par au moins trois pays membres. Les mesures prises devront s’appuyer sur une analyse de marché et une étude d’impact.

L’exécutif européen avait déjà adopté en 2020 une boîte à outils de mesures de sécurité pour les réseaux 5G visant à limiter l’utilisation de fournisseurs à haut risque comme Huawei, en raison de préoccupations relatives à d’éventuels sabotages ou actes d’espionnage. Toutefois, certains pays n’ont toujours pas retiré ces équipements, notamment en raison des coûts élevés que cela représente.

L’Espagne a même signé l’été dernier un contrat de douze millions € avec Huawei pour la fourniture de matériel destiné au stockage des écoutes autorisées par les tribunaux pour les services de police et de renseignement.

Pékin dénonce un « protectionnisme pur et simple »

La Chine n’a pas tardé à réagir. Le ministère chinois des Affaires étrangères a qualifié les restrictions imposées aux entreprises chinoises sans base juridique de «protectionnisme pur et simple », exhortant l’UE à fournir un environnement commercial équitable, transparent et non discriminatoire aux sociétés chinoises.

Pékin avait déjà déclaré en novembre qu’une telle initiative violerait les principes du marché et les règles de la concurrence loyale, soulignant que le retrait d’équipements chinois dans certains pays avait entravé leur développement technologique et entraîné des pertes financières importantes.

L’Europe entre deux dépendances

Cette initiative s’inscrit dans un mouvement plus large de Bruxelles visant à réduire sa dépendance tant vis-à-vis de la Chine que des grandes entreprises technologiques américaines. L’Allemagne a récemment nommé une commission d’experts pour repenser sa politique commerciale envers Pékin et interdit l’utilisation de composants chinois dans les futurs réseaux 6G.

Les États-Unis ont quant à eux banni en 2022 les approbations de nouveaux équipements de télécommunications de Huawei et ZTE.

Reste que la mise en œuvre de ces restrictions pourrait s’avérer complexe. Plus de quatre-vingt-dix pour cent des panneaux solaires installés dans l’UE sont fabriqués en Chine. Certains représentants de l’industrie soulignent également le manque d’alternatives viables, les opérateurs télécoms ayant mis en garde contre l’impact potentiel sur les prix à la consommation.

Le projet de loi doit encore être approuvé par les pays membres et le Parlement européen dans les mois à venir avant de devenir contraignant. Les calendriers proposés devraient faire face à la résistance de certaines capitales européennes, les États membres étant responsables de leur propre sécurité nationale.

The post Cybersécurité : l’UE va durcir le ton face aux équipementiers chinois appeared first on Silicon.fr.

  •  

Comment OpenAI façonne son modèle économique au fil du « compute »

Une opération de communication pour lever les doutes sur le modèle modèle économique et clarifier les perspectives de croissance, c’est le sens du long billet de blog publiée par Sarah Friar, la directrice financière d’OpenAI, sous le titre  » Une entreprise qui évolue en fonction de la valeur de l’intelligence ».

Si l’inventeur de ChatGPT capte une grande partie de la lumière du business de la GenAI depuis trois ans, il cristallise aussi les inquiétudes sur les investissements faramineux et les craintes sur un déficit de ROI qui pourraient faire éclater « la bulle de l’IA » alimentée par les investissements titanesques dans les infrastructures.

Pour rassurer sur la capacité d’OpenAI à créer de la valeur, Sarah Friar révèle que les revenus annualisés ont bondi de 2 milliards $ en 2023 à plus de 20 milliards en 2025. Une multiplication par dix en deux ans ! Et de préciser que cette explosion des revenus est proportionnelle à celle de la puissance de calcul déployée à coup de centaines de milliards investis dans les infrastructures.

Le compute, moteur de la croissance

« Notre capacité à servir nos clients se mesure directement à notre puissance de calcul disponible », écrit Sarah Friar. Les chiffres parlent d’eux-mêmes : la capacité de calcul d’OpenAI est passée de 0,2 gigawatt en 2023 à 0,6 GW en 2024, pour atteindre environ 1,9 GW en 2025. Soit une multiplication par 9,5 en deux ans, avec un triplement annuel.

Cette corrélation parfaite entre infrastructure et revenus dessine le modèle économique d’OpenAI. « Il s’agit d’une croissance jamais vue à une telle échelle », affirme la directrice financière, qui ajoute que davantage de compute aurait permis une adoption et une monétisation encore plus rapides.

Partie des abonnements grand public, l’entreprise a progressivement étendu son offre aux entreprises, avant d’ajouter une tarification à l’usage pour les développeurs via son API. « Au fur et à mesure que l’IA s’intégrait dans les équipes et les workflows, nous avons créé des abonnements professionnels et ajouté une tarification basée sur l’usage, afin que les coûts évoluent avec le travail réellement effectué », explique-t-elle.

La semaine dernière, OpenAI a franchi un nouveau cap en annonçant l’introduction de publicités dans ChatGPT pour certains utilisateurs américains. Elle devrait également dévoiler son premier « produit Hardware » au second semestre 2026, comme l’a rapporté Axios en début de semaine.

Sarah Friar évoque de nouveaux modèles économiques au-delà des abonnements et des API : licences, accords basés sur la propriété intellectuelle et tarification basée sur les résultats. « À mesure que l’intelligence s’étend à la recherche scientifique, la découverte de médicaments, les systèmes énergétiques et la modélisation financière, de nouveaux modèles économiques émergeront », prédit-elle.

2026 : l’année de « l’adoption pratique »

L’année 2026 sera celle de « l’adoption pratique », annonce la directrice financière. « La priorité est de combler l’écart entre ce que l’IA rend désormais possible et la façon dont les gens, les entreprises et les pays l’utilisent au quotidien », écrit-elle.

L’opportunité se révèle particulièrement importante dans trois secteurs : la santé, les sciences et l’entreprise, où une meilleure intelligence se traduit directement par de meilleurs résultats. OpenAI mise sur une nouvelle génération d’agents intelligents et l’automatisation des workflows, capables de fonctionner en continu, de conserver le contexte dans le temps et d’agir sur différents outils.

Une stratégie d’infrastructure diversifiée

Face aux critiques sur ses dépenses massives, Sarah Friar défend une approche pragmatique. OpenAI maintient un bilan « léger » en privilégiant les partenariats plutôt que la propriété. Il y a trois ans, l’entreprise dépendait d’un seul fournisseur de compute. Aujourd’hui, elle collabore avec un écosystème diversifié de partenaires, incluant Microsoft, Oracle et d’autres acteurs.

Ce changement apporte de la certitude sur l’accès au compute. « Nous pouvons planifier, financer et déployer de la capacité avec confiance dans un marché où l’accès au compute définit qui peut passer à l’échelle », explique-t-elle.

Cette diversification permet à OpenAI de concentrer ses ressources sur l’innovation tout en conservant l’agilité nécessaire pour naviguer dans l’évolution rapide du secteur.

« L’infrastructure élargit ce que nous pouvons offrir. L’innovation étend ce que l’intelligence peut faire. L’adoption étend qui peut l’utiliser. Les revenus financent le prochain bond en avant », conclut Sarah Friar.

The post Comment OpenAI façonne son modèle économique au fil du « compute » appeared first on Silicon.fr.

  •  
❌