Vue lecture

Chez France Télévisions, des déconnexions entre DSI et direction du numérique

Dans un contexte financier critique et un cadre social rigide, mobiliser les moyens pour déployer la stratégie numérique de France Télévisions est un défi.

La Cour des comptes dresse ce constat dans un rapport consacré à l’évolution du groupe audiovisuel public entre 2017 et 2024.

Des synergies manquées entre DSI et direction du numérique

L’institution pointe notamment un déficit cumulé de 81 M€ sur cette période. Elle évoque, entre autres pistes de remédiation, des « synergies […] à rechercher dans la gestion informatique ». Des surcoûts découlent effectivement de l’absence de mutualisations suffisantes entre la DNUM (direction du numérique) et la DTSI (direction des technologies et des systèmes d’information).

La première a développé en parallèle son SI et son infra, sans lien avec ceux de la seconde. Deux prestataires – Broadcom pour la virtualisation, Palo Alto pour le réseau – ont conclu des contrats de services avec chacune de ces directions, sans concertation entre elles afin de négocier le meilleur prix.

De même, la DNUM ne participe pas* au projet de mutualisation de l’infrastructure d’hébergement des baies de stockage, de la solution de sauvegarde et du cloud coordonné par la DTSI avec les membres de l’initiative TAP (Technologies de l’audiovisuel public). Cette dernière rassemble France Télévisions, Radio France, France Médias Monde, TV5MONDE, ARTE et l’INA. Elle vise une mise en commun des moyens d’innovation et de R&D technologique. Un de ses marchés concerne l’hébergement des données des organismes de l’audiovisuel public.

L’absence d’un schéma directeur des systèmes d’information

Au-delà d’appeler à cette mutualisation, la Cour des comptes invite France Télévisions à formaliser sa stratégie informatique. Elle souligne « de nombreux écarts aux normes de référence ». En particulier vis-à-vis du référentiel COBIT (bonnes pratiques d’audit et de gouvernance des systèmes). De son avis, le groupe audiovisuel devrait, compte tenu de l’importance des enjeux numériques et technologiques de son activité, se doter d’un comité dédié au risque cyber.

Le responsable cyber n’est pas positionné au niveau du comité de direction, nous explique-t-on de surcroît.
Plus globalement, un schéma directeur des systèmes d’information fait défaut. Et le document alternatif – une feuille de route couvrant 2024 – ne saurait s’y substituer dans l’optique d’un pilotage cohérent et transversal.

Les grands projets de modernisation connaissent des retards

La Cour des comptes regrette de n’avoir pu consulter aucun document précisant les objectifs, le calendrier et l’alignement avec la stratégie globale, alors que de nombreux grands projets de la DTSI sont identifiés comme stratégiques.

L’un de ces projets, MOSAR (Modernisation et optimisation des systèmes d’automatisation des régies) a été lancé en 2018 pour renouveler les moyens techniques de production du réseau France 3 (24 antennes régionales).

Auparavant, chaque renouvellement s’opérait de manière unitaire, avec une équipe d’ingénieurs et de chefs de projet responsables de la conception et de la mise en place des moyens, sous-traitant la partie intégration. Ce mode de fonctionnement permettait de renouveler une ou deux régions par an ; rythme insuffisant pour assurer le maintien en condition opérationnelle. De plus, aucune mutualisation n’était possible, chaque régie étant différente de la précédente.

Attribué à Red Bee Media, MOSAR a permis d’atteindre une cadence de 3 régies par an et de mutualiser les formations, le matériel de rechange et les contrats de support, tout en facilitant la mobilité pour le personnel. En l’absence de données chiffrées, la Cour de comptes ne peut juger de la bonne conduite du projet. Toujours est-il que cette automatisation, susceptible de réduire de 40 % les effectifs des régies, « rencontre régulièrement des oppositions et des retards liés au dialogue social ». Plus récemment, la modernisation de la vidéo mobile s’est heurtée aux mêmes difficultés.

Autre projet stratégique : Sherlock. Son but : optimiser les processus de diffusion, avec une solution unique sur le périmètre groupe (passage d’une logique « antenne » à une logique « content-centric« ). Elle doit remplacer une brochette d’outils vieillissants maintenus dans le cadre de deux contrats TMA distincts en raison des technologies différentes utilisées.

Comme MOSAR, Sherlock a connu des reports. Ce sur plusieurs jalons-clés, principalement en raison du manque de ressources internes, de la complexité à basculer dans le cloud et de la reprise des données pouvant comporter des incohérences.

Un cadre social jugé peu favrorable à la mobilisation des compétences

Depuis 2018, Sherlock a représenté 21,4 M€ de dépenses d’investissement ; MOSAR, 13,7 M€. Ils ont accompagné la croissance régulière des charges de la DTSI.

Le budget de la direction du numérique a aussi augmenté (comme ses effectifs, à contre-courant de la diminution au niveau du groupe). Le recours aux prestations extérieures s’est nettement intensifié, face à la difficulté à mobiliser des compétences en interne, « en particulier dans le cadre actuel de gestion des ressources humaines de France Télévisions ».

Au contraire de Radio France, le groupe audiovisuel n’a que récemment mis en œuvre une implication à grande échelle de ses collaborateurs dans la stratégie numérique. Dans un premier temps, il avait effectivement décidé de spécialiser certains collaborateurs sur les fonctions numériques.

* L’absence de participation à ce projet est due à un contrat en cours. La DNUM envisage d’entrer dans la boucle à l’échéance de ce contrat.

Illustration générée par IA

The post Chez France Télévisions, des déconnexions entre DSI et direction du numérique appeared first on Silicon.fr.

  •  

Face aux compromissions, GitHub durcit la sécurité de npm

Utilisateurs de npm, préparez-vous à des changements sur l’authentification et la publication.

GitHub vient de faire passer le message. Il entend réduire, « dans un avenir proche », la gamme d’options disponibles. Ne resteront plus que :

  • La publication locale avec MFA obligatoire
  • Les tokens granulaires avec durée de vie limitée à 7 jours
  • Le trusted publishing

Dans ce cadre, les tokens “classiques” (legacy) seront supprimés. Il en ira de même pour le MFA à base de codes TOTP : il faudra utiliser des méthodes FIDO. Quant aux tokens granulaires, ils expireront plus vite s’ils incluent des permissions de publication.

GitHub compte aussi paramétrer la publication de sorte que les tokens ne seront pas autorisés par défaut. Objectif : encourager l’usage de la publication locale avec MFA… ou du trusted publishing. Cette fonctionnalité implémente un standard défini par l’OpenSSF. Elle utilise l’authentification OIDC pour créer une relation de confiance entre npm et les fournisseurs CI/CD (pour le moment, GitHub Actions et les pipelines GitLab, les exécuteurs autohébergés n’étant pas pris en charge). PyPi fut le premier gestionnaire de paquets à l’adopter, en 2023. RubyGems, crates.io et NuGet, entre autres, ont suivi.

npm récemment compromis par un ver

Sur npm, le trusted publishing est intégré depuis juillet 2025. Il était initialement question d’en laisser se développer l’usage sans incitation particulière. Mais le contexte actuel ne le permet pas, affirme GitHub.

Ce contexte, c’est celui d’une recrudescence des attaques sur les registres de paquets logiciels. Illustration avec celle dite Shai-Hulud (du nom d’un ver des sables dans Dune). Elle a ciblé l’écosystème npm.

À l’origine, il y a possiblement une campagne de phishing ayant ciblé les développeurs, invités à “mettre à jour” leurs options de connexion MFA.
Les comptes ainsi compromis ont servi à publier un package contenant un malware. Celui-ci détectait des authentifiants dans l’environnement compromis (tokens npm et GitHub, clés d’API AWS/Azure/GCP) et les exfiltrait… tout en les rendant publics sur le compte GitHub des victimes.
Les tokens npm ainsi dérobés ont permis d’enclencher un processus de propagation automatisée du malware, ainsi apparenté à un ver. Plus de 500 packages auraient été compromis.

À l’heure actuelle, il reste possible, sur npm, de ne pas exiger le MFA pour la publication des paquets et la modification de leurs paramètres. Pour qui l’active, reste la possibilité d’autoriser les tokens, granulaires ou legacy.
Les tokens legacy (aussi dits jetons d’automatisation) permettent de télécharger des paquets et d’en publier. Ils héritent des permissions dont bénéficie l’utilisateur qui les crée.
Les tokens granulaires ont une date d’expiration et peuvent être associés à des organisations. On peut aussi les limiter à certains paquets et à des plages d’adresses IP.

 Illustration générée par IA

The post Face aux compromissions, GitHub durcit la sécurité de npm appeared first on Silicon.fr.

  •  

Hugging Face ajoute des options européennes pour l’inférence

Et de quatre, comme le nombre de fournisseurs d’inférence européens sur Hugging Face.

Nebius AI (Pays-Bas) était entré dans la boucle en février. Nscale (Royaume-Uni), en mai. Les voilà rejoints par Public AI (Suisse)*… et par Scaleway.

Ces fournisseurs – ainsi qu’une dizaine d’autres – sont intégrés à plusieurs niveaux dans l’écosystème Hugging Face :

  • Widget d’inférence sur les pages des modèles
  • Playground
  • Pages de datasets (conversion text-to-SQL)
  • SDK Python et JavaScript
  • API REST

Le client OpenAI (Python) est une autre option d’accès, mais uniquement pour la saisie semi-automatique de texte.

Scaleway & Cie pour le prototypage, les hyperscalers pour la prod

Par défaut, Hugging Face dirige chaque requête vers le fournisseur approprié et gère la facturation ; pour le moment sans prendre de commission (il a un temps évoqué la possibilité de nouer des accords de partage de revenus). On peut toutefois préférer définir ses fournisseurs en renseignant des clés d’API.

Les comptes Hugging Face gratuits incluent 0,10 $ de crédits par mois, sans possibilité de consommer au-delà. Les comptes PRO donnent droit à 2 $ de crédits et débloquent la facturation à la consommation. Pour les forfaits entreprise, c’est 2 $ de crédits par siège. On est donc sur un usage de prototypage, d’ailleurs axé inférence CPU (AWS, Google et Microsoft interviennent sur la partie déploiement).

Côté Scaleway, on a fait la passerelle le service Generative APIs. À la clé, une sélection d’une dizaine de modèles, dont des Qwen, des Llama, un Gemma, un DeepSeek et gpt-oss-120b.

Fournisseur Saisie semi-automatique (LLM) Saisie semi-automatique (VLM) Extraction de caractéristiques Text-to-image Text-to-video Speech-to-text
Cerebras ?
Cohere ? ?
Fal AI ? ? ?
Featherless AI ? ?
Fireworks ? ?
Groq ? ?
HF Inference ? ? ? ? ?
Hyperbolic ? ?
Nebius ? ? ? ?
Novita ? ? ?
Nscale ? ? ?
Public AI ?
Replicate ? ? ?
SambaNova ? ?
Scaleway ? ?
Together AI ? ? ?

À consulter en complément :

Le projet souverain DNS4EU se concrétise… avec du Scaleway dedans
MLPerf : la quête de benchmarks IA représentatifs
SLM ou LLM ? Pour les systèmes agentiques, NVIDIA a choisi son parti
CyberSOCEval : un banc de test en analyse cyber pour les LLM

* Organisation à but non lucratif qui promeut les travaux de développeurs de modèles publics comme la Swiss AI Initiative, AI Singapore, AI Sweden et le Barcelona Supercomputing Centre

Illustration © Adrian Grosu – Shutterstock

The post Hugging Face ajoute des options européennes pour l’inférence appeared first on Silicon.fr.

  •  

Comment un ransomware a semé la pagaille dans les aéroports européens

Une évacuation samedi à Dublin après une alerte à la bombe, des fermetures lundi à Oslo et Copenhague pour survol de drones… Ces derniers jours auront été mouvementés pour les aéroports de par l’Europe.

À cela s’est ajoutée une cyberattaque. Pas directement contre eux, mais contre le fournisseur d’un logiciel d’enregistrement des passagers et des bagages. Les premiers symptômes ont été constatés vendredi dans la soirée. La situation n’est pas encore pleinement revenue à la normale.

Un logiciel américain répandu dans les aéroports européens

Le logiciel en question s’appelle MUSE (Multi-User Systems Environment). Il est fourni par Collins Aerospace, filiale de RTX (ex-Raytheon Technologies), un géant de l’aérospatiale et de la défense*.

Déployé dans « plus de 100 aéroports » et utilisé par « plus de 300 compagnies aériennes », MUSE est, dans le jargon, un CUPPS (common-use passenger processing system). Il permet de mutualiser comptoirs d’enregistrement et portes d’embarquement. Plusieurs modules le composent : SelfServ pour l’enregistrement en self-service, SelfPass pour l’identification biométrique, SmartBag pour le suivi des bagages, AirVue pour la gestion des panneaux d’information, etc.). Le déploiement sur site reste possible, mais Collins Aerospace met généreusement en avant la « nouvelle génération » de MUSE, hébergée chez AWS.

Avec les déploiements cloud, l’interconnexion se fait grâce au service WAN AviNet, qui repose sur le réseau d’ARINC. Cette entreprise est le fournisseur historique – depuis près d’un siècle – des infrastructures de communication des aéroports. Elle fut détenue par les principales compagnies aériennes et divers constructeurs aéronautiques américains. Son activité communications (elle éditait par ailleurs des normes dans le domaine de l’avionique) fut vendue à Carlyle Group en 2007. Avant de tomber, en 2013, dans le giron de Rockwell Collins, qui allait lui-même fusionner en 2018 avec United Technologies pour donner naissance à Collins Aerospace.

Un ransomware au bout du compte

Ce réseau semble avoir été infiltré. Les attaquants sont possiblement remontés jusqu’à des contrôleurs de domaines dans l’environnement Windows de Collins Aerospace. Au bout de la chaîne, un ransomware a pu être diffusé, selon l’ENISA.

Lundi, Collins Aerospace a affirmé que le processus de reconstruction des systèmes impactés touchait à sa fin. Dans la même journée, on a appris qu’après une tentative de restauration à partir d’une sauvegarde, la menace avait persisté.

À Londres-Heathrow, plus d’un millier de terminaux auraient été corrompus, une restauration à distance n’étant pas envisageable pour la plupart. Sur place, Collins Aerospace a recommandé aux compagnies aériennes de ne pas éteindre de systèmes ni de se déconnecter des logiciels. La majorité des vols du dimanche et du lundi ont été maintenus, mais des compagnies enregistrent encore manuellement passagers et bagages.

Work continues to resolve and recover from the outage of a Collins Aerospace airline system that impacted check-in. We apologise to those who have faced delays, but by working together with airlines, the vast majority of flights have continued to operate.

We encourage… pic.twitter.com/S40IbNveqK

– Heathrow Airport (@HeathrowAirport) September 21, 2025

Du côté de Berlin-Brandebourg, on a annoncé, pour dimanche, des retards « typiques d’une journée classique ». Lundi, l’aéroport s’est fécilité de perturbations restées « dans les limites acceptables » vu les circonstances et l’afflux lié au marathon de Berlin. Dans la soirée, il a évoqué une situation « stabilisée », mais la possibilité de temps d’attente allongés.

Der Betrieb am #BER läuft weitgehend stabil, dank des großen Einsatzes unserer Teams und Partner. Heute erhöhtes Passagieraufkommen – längere Wartezeiten möglich.
👉 Online-Check-in nutzen
👉 Self-Service-Automaten verwenden
👉 Fast-Bag-Drop für Gepäck

?? https://t.co/3R5yJvnTF1

– BER – Berlin Brandenburg Airport (@berlinairport) September 22, 2025

D’après les données d’Eurocontrol, 70 % des vols au départ de Berlin ont eu plus de 15 minutes de retard lundi.
Le taux fut de 85 % à Bruxelles, où, de plus, 63 vols furent annulés (40 au départ, 23 à l’arrivée).

Limited disruption expected on 22 and 23 September, causing some flight delays and cancellations. Check the status of your flight before coming to the airport. More information on our website: https://t.co/CGtagAiP9J pic.twitter.com/P0Z9Dec8Rd

– Brussels Airport (@BrusselsAirport) September 22, 2025

Dimanche à la mi-journée, 13 vols avaient été annulés à l’aéroport de Dublin. Qui appelait les voyageurs à « prévoir du temps supplémentaires » en cas de bagages à enregistrer.

Passenger Update – Monday @ 07.15

The Dublin Airport team is continuing to support airlines today (Monday) as they manage ongoing disruption from a technical issue that is affecting check-in and boarding systems at several airports in Europe.

1/4 🧵 pic.twitter.com/NHWQpRo2LG

– Dublin Airport (@DublinAirport) September 22, 2025

* Collins Aerospace a 4 sites en France, à Antony (Hauts-de-Seine ; systèmes antifeu pour hélicoptères), Blagnac (Garonne ; avionique pour hélicoptères civils), Figeac (Lot ; hélices) et Saint-Ouen-l’Aumône (Val-d’Oise ; actionneurs de vol et treuils pour hélicoptères et avions de transport militaires).

Illustration générée par IA

The post Comment un ransomware a semé la pagaille dans les aéroports européens appeared first on Silicon.fr.

  •  

Assistants de codage : un marché volatil où les prix sont peu lisibles

Remarquablement volatil. Ainsi Gartner dépeint-il le marché des assistants de codage.

C’est le deuxième Magic Quadrant qu’il lui consacre, dans la continuité de celui, plus généraliste, consacré aux « services d’IA cloud pour les développeurs ».

Par rapport à l’an dernier, les éléments obligatoires sur le plan fonctionnel ont peu évolué. Il fallait proposer, dans les grandes lignes :

  • Saisie semi-automatique multiligne avec suggestions en langage naturel
  • Génération de tests unitaires et de documentation
  • Assistance généraliste sur de multiples langages et frameworks
  • Connaissance du contexte des dépôts de code de l’entreprise et d’autres sources type documentation
  • Chat intégré dans l’environnement de développement, avec possibilité de faire référence à des fichiers et dossiers
  • Garantie de non-exploitation du code ou de la documentation des clients à des fins d’entraînement de modèles
  • Options d’administration telles que l’exclusion de code et la définition de styles de programmation

Gartner a néanmoins tenu compte du mouvement de l’offre, marqué par une transition des plug-in pour IDE vers des environnements autonomes. Il a aussi intégré l’aspect agentique dans son évaluation.

Quant à la volatilité du marché, le cabinet américain en veut notamment pour preuve ce qui est arrivé à Windsurf (ex-Codeium). OpenAI a tenté d’en faire l’acquisition, mais c’est finalement Cognition qui s’en est emparé, l’équipe dirigeante rejoignant Google.

Autre illustration : la controverse que Cursor a suscitée en augmentant ses tarifs, en conséquence de la hausse du coût de sa « matière première » : les modèles d’Anthropic. Ce dernier représente une menace d’autant plus grande qu’il s’est lui-même positionné sur ce marché, avec Claude Code. Le symbole d’une tendance plus globale des fournisseurs de LLM à développer leurs propres assistants de code.

14 fournisseurs, 5 « leaders »

Reflet de cette volatilité, la hiérarchie évolue assez nettement sur chacun des axes du Magic Quadrant. Des 14 fournisseurs classés, 4 sont de nouveaux entrants. Dont un chez les « leaders » : Anysphere, éditeur de Cursor.

Sur l’axe « exécution », censé traduire la capacité à répondre effectivement à la demande (expérience client, performance avant-vente, qualité des produits/services…), la situation est la suivante :

Rang Fournisseur Évolution annuelle
1 GitHub =
2 Amazon +2
3 Cognition (Windsurf) +3
4 Anysphere (Cursor) nouvel entrant
5 Alibaba Cloud =
6 GitLab -4
7 Google -4
8 Harness nouvel entrant
9 Qodo +2
10 Tabnine -2
11 Tencent Cloud -1
12 Augment Code nouvel entrant
13 IBM -6
14 JetBrains nouvel entrant

Sur l’axe « vision », qui rend compte des stratégies (sectorielle, géographique, commerciale/marketing, produit…) :

Rang Fournisseur Évolution annuelle
1 GitHub =
2 Cognition +6
3 Amazon -1
4 GitLab =
5 Google -2
6 Harness nouvel entrant
7 Qodo +4
8 Tabnine +1
9 Augment nouvel entrant
10 Anysphere nouvel entrant
11 Alibaba Cloud -5
12 IBM -5
13 JetBrains nouvel entrant
14 Tencent Cloud -4

Options de déploiement et de personnalisation limitées chez Amazon

Amazon est moins exhaustif que les autres fournisseurs sur le nombre d’IDE pris en charge, avait constaté Gartner l’an dernier. Un défaut résolu : désormais, Amazon Q Developer est au contraire salué pour sa diffusion dans de nombreux environnements. Bon point également sur le volet agentique, en particulier dans le domaine de la modernisation. S’y ajoutent les investissements dans le raisonnement automatisé, déjà distingués l’an dernier. Même chose pour le recueil du feedback client. Amazon a aussi pour lui la qualité de son support à l’exploitation (contrôles de sécurité, mises à jour sans temps d’arrêt, disponibilité des gestionnaires de compte).

En comparaison aux autres hyperscalers ici classés, Amazon déploie moins d’efforts commerciaux centrés sur les assistants de codage. Son business model peut par ailleurs compliquer la planification des coûts et le benchmarking. Et les options de personnalisation (fine-tuning, bibliothèque de prompts…) restent limitées, comme les options de déploiement. Plus globalement, l’offre est optimisée pour l’écosystème AWS, ce qui peut engendrer des coûts en cas de changement de fournisseur. L’IDE Kiro est un palliatif, mais il était encore en version expérimentale au moment où Gartner a effectué son évaluation.

Cognition, moins mature sur l’approche commerciale

Cognition est crédité de bons points pour sa prise en charge exhaustive des langages de programmation et la robustesse de ses intégrations IDE (en plus d’avoir le sien). Gartner apprécie les capacités de son produit sur la personnalisation de code, le test, le débogage et la génération de documentation. Il salue aussi la flexibilité procurée par l’intégration agentique au sein du cycle de développement. Bons points également pour le moteur de raisonnement Cortex et la facilité de déploiement (modèles hybrides).

Difficile, après le départ de l’équipe dirigeante vers Google, de ne pas avoir de doutes sur la viabilité de Windsurf. Et, en parallèle, sur son modèle économique, a fortiori au moment où l’intégration des agents s’accompagne d’une transition du licensing par siège à une tarification à l’usage. Gartner relève, de plus, un manque de ressources qui limite les capacités d’expansion de Cognition au-delà des marchés dev-centric. L’approche commerciale est globalement moins mature chez les autres « leaders », tant sur le channel que sur la verticalisation.

Tarification complexe chez GitHub

GitHub Copilot excelle sur les tâches essentielles (traduction de code, compréhension du runtime, documentation automatique), selon Gartner. Autre point fort : le niveau d’intégration dans le SDLC (disponibilité native dans GitHub et dans Visual Studio Code, notamment). Bons points également pour la gouvernance et l’intégration avec les codebases.

Gartner observe que l’adaptation sectorielle de l’offre est minimale. Il pointe aussi la complexité de la tarification. La multiplicité des SKU autant que l’interaction avec les abonnements GitHub Enterprise contribuent à une forme d’opacité. Il n’est par ailleurs pas toujours évident de s’y retrouver entre les conditions contractuelles de GitHub et celles de Microsoft dans le cadre des offres cross-platform.

GitLab, pas en avance sur le marché

L’an dernier, Gartner avait salué GitLab pour sa stratégie marketing, ainsi que pour la visibilité et l’engagement qui en résultaient. Il avait aussi apprécié le volume de ressources consacrées au développement et au support. C’est toujours le cas, en conséquence de quoi la proportion d’acquisition indrecte de clients est importante. Autres points forts : le niveau d’intégration au sein de la plate-forme GitLab et ma flexibilité du déploiement.

GitLab est moins bien positionné que la concurrence pour ce qui est de la prise en compte du contexte d’entreprise. Il n’est plus globalement pas en avance sur le marché en ce qui concerne un certain nombre de briques (chat, tableaux de bord analytiques, options d’autohébergement). Son message a par ailleurs tendance à se centrer sur l’aspect « IA pour le DevOps » plutôt que sur le coeur fonctionnel, au risque de perdre en notoriété auprès des développeurs.

Traduction, documentation… Google, en retard sur plusieurs usages

Gartner apprécie l’intégration « fluide » de Gemini Code Assistant dans les IDE et dans l’écosystème GCP. Bon point également pour la taficiation, avec un niveau individuel gratuit qui permet d’attirer une base d’utilisateurs. Autres éléments salués : la qualité du support, la robustesse des SLA et les passerlles avec DeepMind, qui favorisent l’adaptation des modèles aux cas d’usage « réels ».

Google est en retard sur les autres « leaders » pour ce qui est de la traduction de code, de la compréhension des runtimes et de la génération de documentation. Il l’est aussi sur le choix des modèles et sur l’adaptation de son offre à des secteurs d’activité comme à des tailles d’entreprises. La tarification manque de transparence, en particulier sur les remises.

Illustration générée par IA

The post Assistants de codage : un marché volatil où les prix sont peu lisibles appeared first on Silicon.fr.

  •  

Hugging Face ajoute des options européennes pour l’inférence

Et de quatre, comme le nombre de fournisseurs d’inférence européens sur Hugging Face.

Nebius AI (Pays-Bas) était entré dans la boucle en février. Nscale (Royaume-Uni), en mai. Les voilà rejoints par Public AI (Suisse)*… et par Scaleway.

Ces fournisseurs – ainsi qu’une dizaine d’autres – sont intégrés à plusieurs niveaux dans l’écosystème Hugging Face :

  • Widget d’inférence sur les pages des modèles
  • Playground
  • Pages de datasets (conversion text-to-SQL)
  • SDK Python et JavaScript
  • API REST

Le client OpenAI (Python) est une autre option d’accès, mais uniquement pour la saisie semi-automatique de texte.

Scaleway & Cie pour le prototypage, les hyperscalers pour la prod

Par défaut, Hugging Face dirige chaque requête vers le fournisseur approprié et gère la facturation ; pour le moment sans prendre de commission (il a un temps évoqué la possibilité de nouer des accords de partage de revenus). On peut toutefois préférer définir ses fournisseurs en renseignant des clés d’API.

Les comptes Hugging Face gratuits incluent 0,10 $ de crédits par mois, sans possibilité de consommer au-delà. Les comptes PRO donnent droit à 2 $ de crédits et débloquent la facturation à la consommation. Pour les forfaits entreprise, c’est 2 $ de crédits par siège. On est donc sur un usage de prototypage, d’ailleurs axé inférence CPU (AWS, Google et Microsoft interviennent sur la partie déploiement).

Côté Scaleway, on a fait la passerelle le service Generative APIs. À la clé, une sélection d’une dizaine de modèles, dont des Qwen, des Llama, un Gemma, un DeepSeek et gpt-oss-120b.

Fournisseur Saisie semi-automatique (LLM) Saisie semi-automatique (VLM) Extraction de caractéristiques Text-to-image Text-to-video Speech-to-text
Cerebras ?
Cohere ? ?
Fal AI ? ? ?
Featherless AI ? ?
Fireworks ? ?
Groq ? ?
HF Inference ? ? ? ? ?
Hyperbolic ? ?
Nebius ? ? ? ?
Novita ? ? ?
Nscale ? ? ?
Public AI ?
Replicate ? ? ?
SambaNova ? ?
Scaleway ? ?
Together AI ? ? ?

À consulter en complément :

Le projet souverain DNS4EU se concrétise… avec du Scaleway dedans
MLPerf : la quête de benchmarks IA représentatifs
SLM ou LLM ? Pour les systèmes agentiques, NVIDIA a choisi son parti
CyberSOCEval : un banc de test en analyse cyber pour les LLM

* Organisation à but non lucratif qui promeut les travaux de développeurs de modèles publics comme la Swiss AI Initiative, AI Singapore, AI Sweden et le Barcelona Supercomputing Centre

Illustration © Adrian Grosu – Shutterstock

The post Hugging Face ajoute des options européennes pour l’inférence appeared first on Silicon.fr.

  •  

Comment un ransomware a semé la pagaille dans les aéroports européens

Une évacuation samedi à Dublin après une alerte à la bombe, des fermetures lundi à Oslo et Copenhague pour survol de drones… Ces derniers jours auront été mouvementés pour les aéroports de par l’Europe.

À cela s’est ajoutée une cyberattaque. Pas directement contre eux, mais contre le fournisseur d’un logiciel d’enregistrement des passagers et des bagages. Les premiers symptômes ont été constatés vendredi dans la soirée. La situation n’est pas encore pleinement revenue à la normale.

Un logiciel américain répandu dans les aéroports européens

Le logiciel en question s’appelle MUSE (Multi-User Systems Environment). Il est fourni par Collins Aerospace, filiale de RTX (ex-Raytheon Technologies), un géant de l’aérospatiale et de la défense*.

Déployé dans « plus de 100 aéroports » et utilisé par « plus de 300 compagnies aériennes », MUSE est, dans le jargon, un CUPPS (common-use passenger processing system). Il permet de mutualiser comptoirs d’enregistrement et portes d’embarquement. Plusieurs modules le composent : SelfServ pour l’enregistrement en self-service, SelfPass pour l’identification biométrique, SmartBag pour le suivi des bagages, AirVue pour la gestion des panneaux d’information, etc.). Le déploiement sur site reste possible, mais Collins Aerospace met généreusement en avant la « nouvelle génération » de MUSE, hébergée chez AWS.

Avec les déploiements cloud, l’interconnexion se fait grâce au service WAN AviNet, qui repose sur le réseau d’ARINC. Cette entreprise est le fournisseur historique – depuis près d’un siècle – des infrastructures de communication des aéroports. Elle fut détenue par les principales compagnies aériennes et divers constructeurs aéronautiques américains. Son activité communications (elle éditait par ailleurs des normes dans le domaine de l’avionique) fut vendue à Carlyle Group en 2007. Avant de tomber, en 2013, dans le giron de Rockwell Collins, qui allait lui-même fusionner en 2018 avec United Technologies pour donner naissance à Collins Aerospace.

Un ransomware au bout du compte

Ce réseau semble avoir été infiltré. Les attaquants sont possiblement remontés jusqu’à des contrôleurs de domaines dans l’environnement Windows de Collins Aerospace. Au bout de la chaîne, un ransomware a pu être diffusé, selon l’ENISA.

Lundi, Collins Aerospace a affirmé que le processus de reconstruction des systèmes impactés touchait à sa fin. Dans la même journée, on a appris qu’après une tentative de restauration à partir d’une sauvegarde, la menace avait persisté.

À Londres-Heathrow, plus d’un millier de terminaux auraient été corrompus, une restauration à distance n’étant pas envisageable pour la plupart. Sur place, Collins Aerospace a recommandé aux compagnies aériennes de ne pas éteindre de systèmes ni de se déconnecter des logiciels. La majorité des vols du dimanche et du lundi ont été maintenus, mais des compagnies enregistrent encore manuellement passagers et bagages.

Work continues to resolve and recover from the outage of a Collins Aerospace airline system that impacted check-in. We apologise to those who have faced delays, but by working together with airlines, the vast majority of flights have continued to operate.

We encourage… pic.twitter.com/S40IbNveqK

– Heathrow Airport (@HeathrowAirport) September 21, 2025

Du côté de Berlin-Brandebourg, on a annoncé, pour dimanche, des retards « typiques d’une journée classique ». Lundi, l’aéroport s’est fécilité de perturbations restées « dans les limites acceptables » vu les circonstances et l’afflux lié au marathon de Berlin. Dans la soirée, il a évoqué une situation « stabilisée », mais la possibilité de temps d’attente allongés.

Der Betrieb am #BER läuft weitgehend stabil, dank des großen Einsatzes unserer Teams und Partner. Heute erhöhtes Passagieraufkommen – längere Wartezeiten möglich.
👉 Online-Check-in nutzen
👉 Self-Service-Automaten verwenden
👉 Fast-Bag-Drop für Gepäck

?? https://t.co/3R5yJvnTF1

– BER – Berlin Brandenburg Airport (@berlinairport) September 22, 2025

D’après les données d’Eurocontrol, 70 % des vols au départ de Berlin ont eu plus de 15 minutes de retard lundi.
Le taux fut de 85 % à Bruxelles, où, de plus, 63 vols furent annulés (40 au départ, 23 à l’arrivée).

Limited disruption expected on 22 and 23 September, causing some flight delays and cancellations. Check the status of your flight before coming to the airport. More information on our website: https://t.co/CGtagAiP9J pic.twitter.com/P0Z9Dec8Rd

– Brussels Airport (@BrusselsAirport) September 22, 2025

Dimanche à la mi-journée, 13 vols avaient été annulés à l’aéroport de Dublin. Qui appelait les voyageurs à « prévoir du temps supplémentaires » en cas de bagages à enregistrer.

Passenger Update – Monday @ 07.15

The Dublin Airport team is continuing to support airlines today (Monday) as they manage ongoing disruption from a technical issue that is affecting check-in and boarding systems at several airports in Europe.

1/4 🧵 pic.twitter.com/NHWQpRo2LG

– Dublin Airport (@DublinAirport) September 22, 2025

* Collins Aerospace a 4 sites en France, à Antony (Hauts-de-Seine ; systèmes antifeu pour hélicoptères), Blagnac (Garonne ; avionique pour hélicoptères civils), Figeac (Lot ; hélices) et Saint-Ouen-l’Aumône (Val-d’Oise ; actionneurs de vol et treuils pour hélicoptères et avions de transport militaires).

Illustration générée par IA

The post Comment un ransomware a semé la pagaille dans les aéroports européens appeared first on Silicon.fr.

  •  

Assistants de codage : un marché volatil où les prix sont peu lisibles

Remarquablement volatil. Ainsi Gartner dépeint-il le marché des assistants de codage.

C’est le deuxième Magic Quadrant qu’il lui consacre, dans la continuité de celui, plus généraliste, consacré aux « services d’IA cloud pour les développeurs ».

Par rapport à l’an dernier, les éléments obligatoires sur le plan fonctionnel ont peu évolué. Il fallait proposer, dans les grandes lignes :

  • Saisie semi-automatique multiligne avec suggestions en langage naturel
  • Génération de tests unitaires et de documentation
  • Assistance généraliste sur de multiples langages et frameworks
  • Connaissance du contexte des dépôts de code de l’entreprise et d’autres sources type documentation
  • Chat intégré dans l’environnement de développement, avec possibilité de faire référence à des fichiers et dossiers
  • Garantie de non-exploitation du code ou de la documentation des clients à des fins d’entraînement de modèles
  • Options d’administration telles que l’exclusion de code et la définition de styles de programmation

Gartner a néanmoins tenu compte du mouvement de l’offre, marqué par une transition des plug-in pour IDE vers des environnements autonomes. Il a aussi intégré l’aspect agentique dans son évaluation.

Quant à la volatilité du marché, le cabinet américain en veut notamment pour preuve ce qui est arrivé à Windsurf (ex-Codeium). OpenAI a tenté d’en faire l’acquisition, mais c’est finalement Cognition qui s’en est emparé, l’équipe dirigeante rejoignant Google.

Autre illustration : la controverse que Cursor a suscitée en augmentant ses tarifs, en conséquence de la hausse du coût de sa « matière première » : les modèles d’Anthropic. Ce dernier représente une menace d’autant plus grande qu’il s’est lui-même positionné sur ce marché, avec Claude Code. Le symbole d’une tendance plus globale des fournisseurs de LLM à développer leurs propres assistants de code.

14 fournisseurs, 5 « leaders »

Reflet de cette volatilité, la hiérarchie évolue assez nettement sur chacun des axes du Magic Quadrant. Des 14 fournisseurs classés, 4 sont de nouveaux entrants. Dont un chez les « leaders » : Anysphere, éditeur de Cursor.

Sur l’axe « exécution », censé traduire la capacité à répondre effectivement à la demande (expérience client, performance avant-vente, qualité des produits/services…), la situation est la suivante :

Rang Fournisseur Évolution annuelle
1 GitHub =
2 Amazon +2
3 Cognition (Windsurf) +3
4 Anysphere (Cursor) nouvel entrant
5 Alibaba Cloud =
6 GitLab -4
7 Google -4
8 Harness nouvel entrant
9 Qodo +2
10 Tabnine -2
11 Tencent Cloud -1
12 Augment Code nouvel entrant
13 IBM -6
14 JetBrains nouvel entrant

Sur l’axe « vision », qui rend compte des stratégies (sectorielle, géographique, commerciale/marketing, produit…) :

Rang Fournisseur Évolution annuelle
1 GitHub =
2 Cognition +6
3 Amazon -1
4 GitLab =
5 Google -2
6 Harness nouvel entrant
7 Qodo +4
8 Tabnine +1
9 Augment nouvel entrant
10 Anysphere nouvel entrant
11 Alibaba Cloud -5
12 IBM -5
13 JetBrains nouvel entrant
14 Tencent Cloud -4

Options de déploiement et de personnalisation limitées chez Amazon

Amazon est moins exhaustif que les autres fournisseurs sur le nombre d’IDE pris en charge, avait constaté Gartner l’an dernier. Un défaut résolu : désormais, Amazon Q Developer est au contraire salué pour sa diffusion dans de nombreux environnements. Bon point également sur le volet agentique, en particulier dans le domaine de la modernisation. S’y ajoutent les investissements dans le raisonnement automatisé, déjà distingués l’an dernier. Même chose pour le recueil du feedback client. Amazon a aussi pour lui la qualité de son support à l’exploitation (contrôles de sécurité, mises à jour sans temps d’arrêt, disponibilité des gestionnaires de compte).

En comparaison aux autres hyperscalers ici classés, Amazon déploie moins d’efforts commerciaux centrés sur les assistants de codage. Son business model peut par ailleurs compliquer la planification des coûts et le benchmarking. Et les options de personnalisation (fine-tuning, bibliothèque de prompts…) restent limitées, comme les options de déploiement. Plus globalement, l’offre est optimisée pour l’écosystème AWS, ce qui peut engendrer des coûts en cas de changement de fournisseur. L’IDE Kiro est un palliatif, mais il était encore en version expérimentale au moment où Gartner a effectué son évaluation.

Cognition, moins mature sur l’approche commerciale

Cognition est crédité de bons points pour sa prise en charge exhaustive des langages de programmation et la robustesse de ses intégrations IDE (en plus d’avoir le sien). Gartner apprécie les capacités de son produit sur la personnalisation de code, le test, le débogage et la génération de documentation. Il salue aussi la flexibilité procurée par l’intégration agentique au sein du cycle de développement. Bons points également pour le moteur de raisonnement Cortex et la facilité de déploiement (modèles hybrides).

Difficile, après le départ de l’équipe dirigeante vers Google, de ne pas avoir de doutes sur la viabilité de Windsurf. Et, en parallèle, sur son modèle économique, a fortiori au moment où l’intégration des agents s’accompagne d’une transition du licensing par siège à une tarification à l’usage. Gartner relève, de plus, un manque de ressources qui limite les capacités d’expansion de Cognition au-delà des marchés dev-centric. L’approche commerciale est globalement moins mature chez les autres « leaders », tant sur le channel que sur la verticalisation.

Tarification complexe chez GitHub

GitHub Copilot excelle sur les tâches essentielles (traduction de code, compréhension du runtime, documentation automatique), selon Gartner. Autre point fort : le niveau d’intégration dans le SDLC (disponibilité native dans GitHub et dans Visual Studio Code, notamment). Bons points également pour la gouvernance et l’intégration avec les codebases.

Gartner observe que l’adaptation sectorielle de l’offre est minimale. Il pointe aussi la complexité de la tarification. La multiplicité des SKU autant que l’interaction avec les abonnements GitHub Enterprise contribuent à une forme d’opacité. Il n’est par ailleurs pas toujours évident de s’y retrouver entre les conditions contractuelles de GitHub et celles de Microsoft dans le cadre des offres cross-platform.

GitLab, pas en avance sur le marché

L’an dernier, Gartner avait salué GitLab pour sa stratégie marketing, ainsi que pour la visibilité et l’engagement qui en résultaient. Il avait aussi apprécié le volume de ressources consacrées au développement et au support. C’est toujours le cas, en conséquence de quoi la proportion d’acquisition indrecte de clients est importante. Autres points forts : le niveau d’intégration au sein de la plate-forme GitLab et ma flexibilité du déploiement.

GitLab est moins bien positionné que la concurrence pour ce qui est de la prise en compte du contexte d’entreprise. Il n’est plus globalement pas en avance sur le marché en ce qui concerne un certain nombre de briques (chat, tableaux de bord analytiques, options d’autohébergement). Son message a par ailleurs tendance à se centrer sur l’aspect « IA pour le DevOps » plutôt que sur le coeur fonctionnel, au risque de perdre en notoriété auprès des développeurs.

Traduction, documentation… Google, en retard sur plusieurs usages

Gartner apprécie l’intégration « fluide » de Gemini Code Assistant dans les IDE et dans l’écosystème GCP. Bon point également pour la taficiation, avec un niveau individuel gratuit qui permet d’attirer une base d’utilisateurs. Autres éléments salués : la qualité du support, la robustesse des SLA et les passerlles avec DeepMind, qui favorisent l’adaptation des modèles aux cas d’usage « réels ».

Google est en retard sur les autres « leaders » pour ce qui est de la traduction de code, de la compréhension des runtimes et de la génération de documentation. Il l’est aussi sur le choix des modèles et sur l’adaptation de son offre à des secteurs d’activité comme à des tailles d’entreprises. La tarification manque de transparence, en particulier sur les remises.

Illustration générée par IA

The post Assistants de codage : un marché volatil où les prix sont peu lisibles appeared first on Silicon.fr.

  •  

Pourquoi le Desktop as a Service (DaaS) devient une alternative

Le Desktop as a Service (DaaS) est désormais compétitif par rapport aux PC traditionnels. Gartner estime que les offres cloud, combinées à des clients légers, peuvent alléger fortement les dépenses des petites et moyennes entreprises — sans sacrifier la sécurité ni la flexibilité.

  •